Vous êtes sur la page 1sur 68

ALGÈBRE - POLYNÔMES ET RÉDUCTIONS DES

ENDOMORPHISMES - S3

DRAGOŞ FRĂŢILĂ

Introduction 2
Plan. 2
Objectifs 2
Pré-requis. 3
Contrôles et notes. 3
Consulation. 3
1. Polynômes. 4
1.1. Définitions et propriétés de base. 4
1.2. Divisibilité 8
1.3. La division euclidienne 10
1.4. Idéaux de K[X] 11
1.5. Le plus grand diviseur commun. 13
1.6. Lemmes sur le PGCD 18
1.7. Racines et multiplicités. 20
1.8. Théorème fondamental de l’algèbre : d’Alembert–Gauss. 22
1.9. Preuve du Théorème fondamental de l’algèbre. 23
1.10. Relations de Viète 25
1.11. Facteurs irréductibles et décomposition. 27
1.12. Fractions rationnelles et décomposition 31
2. Le groupe symétrique et le déterminant 32
2.1. Permutations et le groupe symétrique 32
2.2. Le déterminant 35
3. Le polynôme caractéristique et le théorème de Cayley-Hamilton 41
3.1. La comatrice et la formule de Laplace 42
3.2. Démonstration Cayley-Hamilton 46
4. Réduction des endomorphismes 48
4.1. Vecteurs et valeurs propres 48
4.2. Sous-espaces propres 50
4.3. Idéaux d’annulation 53
4.4. Polynôme minimal 54
4.5. Endomorphismes diagonalisables (semisimples) 55
4.6. Trigonalisation 60
4.7. La forme canonique de Jordan 61
4.8. Décomposition de Jordan–Chevalley 63
4.9. Preuve alternative de Jordan–Chevalley 66
5. Applications 67
5.1. Suites définies par récurrence 67
5.2. Systèmes d’équations différentielles linéaires 67
5.3. Algorithme PageRank de google 67
1
Annexe A. Identités de Newton 68
Table des matières

Introduction

Le but principal de ce cours est d’arriver à comprendre et à calculer des réductions des
endomorphismes. Ceci veut dire que si l’on se donne une matrice carrée on voudrait
faire un changement de base pour qu’elle ait une forme aussi simple que possible.
Cette forme s’appelle la forme canonique de Jordan et elle est très importante
pour étudier les systèmes d’équations différentielles ainsi que pour étudier/résoudre
les systèmes linéaires. Les deux ont des applications concrètes qui nous impactent
dans la vie de tous les jours. Une autre application intéressante de la réduction des
endomorphisme est donnée par la résolution des suites définies par récurrence.

Plan. On commencera par des bases sur les polynômes et on démontrera le


théorème fondamental de l’algèbre (d’Alembert–Gauss, voir Théorème 1.68).
Ensuite on regardera les endomorphismes des espaces vectoriels et les matrices
associées. Un outil très important dans l’étude de ces objets est le polynôme
caractéristique et le théorème de Cayley–Hamilton (voir Théorème 3.6). Pour cela
on fera un petit détour par le groupe symétrique (permutations) pour démon-
trer les propriétés de base du déterminant (voir Definition 2.21, Théorème 2.31,
Théorème 2.33, Corollaire 2.27).
Après on définira la notion de valeur propre, vecteur propre et espace propre
généralisé. Avec ces outils on pourra trouver facilement une base dans laquelle
l’endomorphisme de départ aura une forme aussi simple que possible, soit la forme
canonique de Jordan (Definition 4.59). Ensuite on étudiera des propriétés des
endomorphismes comme la diagonalisabilité et la trigonalisabilitée simultanée.
Le chapitre sur les polynômes jouera un rôle crucial.
Comme application immédiate de la forme canonique de Jordan, on donnera la
décomposition de Jordan–Chevalley qui est un excellent outil pour calculer
les puissances d’une matrice quelconque.
A la fin on donnera des applications aux suites définies par récurrences et,
dans la limite du temps disponible, aux systèmes d’équations différentielles
linéaires 1.

Objectifs. Connaître et savoir manipuler les polynômes : faire la division eucli-


dienne, calculer le pgcd, racines, dériver, factoriser, trouver un générateur d’un idéal
dans l’anneaux de polynômes.
Manipuler des permutations et connaitre la définition du déterminant et ses proprié-
tés fondamentales. Idéalement la preuve de l’existence et de l’unicité de la fonction
déterminant.

1. ce sera juste un avant-goût car les systèmes d’équations différentielles seront étudiées sérieu-
sement en S6
Savoir calculer le polynôme caractéristique d’une matrice/endomorphisme, trouver
les valeurs propres et les vecteurs propres d’une matrices et connaitre l’interprétation
en termes de noyau. Savoir trouver les espaces propres généralisés et trouver la
forme canonique de Jordan.
Connaitre la décomposition de Jordan–Chevalley, savoir la trouver dans des exemples
concrets et savoir l’appliquer pour calculer des puissances des matrices et résoudre
les suites définies par récurrence.

Pré-requis. Il est crucial que les étudiants soient à l’aise avec les ensembles, les
fonctions, les espaces vectoriels et les matrices. Ce sera désirable qu’ils sachent
calculer des déterminants. Une familiarité avec l’arithmétique dans Z sera utile mais
pas indispensable. Pour avoir de bons résultats, je conseille au moins 5h/semaine de
travail individuel pour ce cours.

Contrôles et notes. Il y aura trois contrôles : 1h, 2h, 3h avec des coefficients 1/6,
1/3 respectivement 1/2. Des DM (sur moodle) pourront être donnés dont la note se
rajoutera à la note des contrôles.

Consulation. Il est possible d’avoir des heures de consultation individuelles ou en


groupes. Pour cela il faut prendre un rendez-vous à fratila@math.unistra.fr.
1. Polynômes.

Dans cette section on parle de polynômes et de leur arithmétique. Le théorème clé


pour nous sera le théorème fondamental de l’algèbre (dû à d’Alembert-Gauss).
On notera par K un des corps Q, R, C ou bien Fq pour q = pe avec pun nombre
premier. Si vous ne savez pas ce qu’est Fq ce n’est pas grave, mais renseignez-vous
rapidement.

1.1. Définitions et propriétés de base. Plus bas on donne la définition formelle


d’un polynôme :
Définition 1.1. On polynôme à coefficients dans K est une fonction F : N → K
telle que pour tous n naturels, sauf un nombre fini, on ait F (n) = 0. Pour simplifier,
on notera par Fn la valeur de F (n).
Une définition équivalente : un polynôme à coefficients dans K est une suite (an )n≥0 ⊂
K telle que an = 0 pour tout n assez grand.

Notation : Pour simplifier encore et avoir plus d’intuition, on note traditionnelle-


ment un polynôme F : N → K par
¯
F (X) = a0 +a1 X+a2 X 2 +a3 X 3 +· · ·+an X n , où ai = F (i) et F (i) = 0, pour tous les i > n.
Dès fois on peut supprimer le (X) de F (X) et écrire juste F mais que si cela ne
mène pas à des confusions.
L’ensemble de tous les polynômes à coefficient dans K est noté K[X].
Démontrons, en utilisant la Definition 1.1, les propriétés de base des polynômes : on
peut les additionner, l’addition est associative et commutative ; on peut les multiplier
et la multiplication est commutative, associative, et distributive. De plus, on peut
multiplier les polynômes par un scalaire λ ∈ K.
Addition : Soit F , G deux polynômes. On les voit comme F, G : N → K. Alors la
somme est
F + G: N → K définie par n 7→ Fn + Gn .
Comme F et G sont des polynômes, il existe un nombre n0 tels que Fn = Gn = 0
pour tout n supérieur à n0 . Alors F + G vérifie aussi (F + G)n = 0 pour tout n
supérieur à n0 et donc c’est un polynôme.
Montrons la commutativité : (F + G)n = Fn + Gn = Gn + Fn = (G + F )n pour
tout n ∈ N donc on a bien F + G = G + F .
L’associativité se démontre de la même façon (Exercice !).
Multiplication. Le produit est un peu plus subtil : soient F et G deux polynômes
dans K[X]. On les voit comme F, G : N → K. On définit le produit
n
X
FG: N → K donnée par (F G)n := Fi Gn−i .
i=0

À ce stade on a l’impression que ça va être trop pénible de multiplier les polynômes.


On verra bientôt que ce n’est pas le cas. On utilise ce formalisme juste pour démontrer
les propriétés importantes et ensuite on passe à la notation avec les puissances de
X qui est beaucoup plus intuitive.
Montrons la commutativité : soient F , G des polynômes dans K[X]. Pour tout n ∈ N
on a
Xn
(F G)n = Fi Gn−i (par définition)
i=0
0
X
= Fi Gn−i (on somme dans le sens inverse)
i=n
Xn
= Fn−j Gj (chg de variable j := n − i)
j=0
Xn
= Gj Fn−j (car les éléments de K commutent)
j=0
= (GF )n (par définition)
et donc on déduit que F G = GF quelque soient les polynômes F , G dans K[X].
Faisons maintenant l’associativité : soient F , G, H des polynômes dans K[X]. Pour
tout n ∈ N on a
X n
((F G)H)n = (F G)i Hn−i (par définition)
i=0
n X
X i
= Fj Gj−i Hn−i (par définition)
i=0 j=0
Xn X n
= Fj Gi−j Hn−i (inversion des deux Σ)
j=0 i=j
n n−j
X X
= Fj Gk Hn−j−k (chg variable k := i − j)
j=0 k=0
n
X n−j
X
= Fj Gk Hn−j−k
j=0 k=0
Xn
= Fj (GH)n−j (par définition de (GH)n−j )
j=0
= (F (GH))n (par définition)
et don on déduit que ((F G)H) = (F (GH)) quelque soient les polynômes F , G, H
dans K[X].
Exercice 1.2. Montrer la distributivité en faisant le même type de raisonnement
comme ci-dessus. C’est à dire, montrer que F (G + H) = F G + F H.

Multiplication par un scalaire. Ceci est la dernière structure que les polynômes
ont : on peut les multiplier par un scalaire (c’est à dire un élément de K). Soit
λ ∈ K et F un polynôme dans K[X]. On le voit comme F : N → K. Alors on définit

(λF )n := λFn pour tout n dans N.

Vérifier que ceci est bien un polynôme et que cette nouvelle opération satisfait

λ(F + G) = λF + λG (distributivité)
λ(F G) = (λF )G = F · (λG) (commute avec la multiplication des polynômes)

On a défini les structures et démontré les propriétés fondamentales des polynômes


et donc dorénavant on peut se débarrasser de la notation lourde F : N → K pour
les polynômes et les écrire sous la forme habituelle

a0 X 0 + a1 X + a2 X 2 + . . . an X n où a0 , a1 , . . . , an ∈ K.

D’habitude, le terme constant a0 X 0 , est écrit simplement a0 en supprimant le X 0 .

Donnons des exemples

Exemple 1.3.
(1) Le polynôme nul : P = 0 := 0 · X 0 + 0 · X + 0 · X 2 + . . . (attention, ce n’est
pas un nombre, mais un polynôme). Il a la propriété (évidente) suivante :

Q+0=Q quelque soit Q dans K[X].

(2) Le polynôme constant égal à 1 : P = 1 := 1 · X 0 + 0 · X + 0 · X 2 + . . . . Il a


la propriété suivante

Q·1=Q quelque soit Q dans K[X].

Exercice 1.4. Démontrer, comme on l’a fait pour l’addition et la multipli-


cation, que Q · 1 = Q pour tout polynôme Q dans K[X].

(3) Les polynômes constants : soit λ ∈ K. Le polynôme constant égal à λ est

P := λ · X 0 + 0 · X + 0 · X 2 + . . . .

Convainquez-vous que le polynôme nul et le polynôme constant égal à 1 en


sont des cas particuliers.
(4) par la commutativité et la distributivité de la multiplication on a

(1 + X)(2 − X) = (1 + X)2 − (1 + X)X


= 2 + 2X − X − X 2
= 2 + X − X 2.

(5) On regroupe les termes suivant les puissances de X et on les écrit soit de
façon croissante soit de façon décroissante, selon l’humeur et le besoin

(X − X 2 )(X − 2 + X 3 ) = X 2 − 2X + X 4 − X 3 + 2X 2 − X 5
= −2X + 3X 2 − X 3 + X 4 − X 5 .
(6) On regroupe et on simplifie autant que l’on peut 2
(1 − X)(1 + X + X 2 + X 3 + · · · + X n ) = 1 + X + X 2 + X 3 + · · · + X n
− X − X 2 − X 3 − · · · − X n − X n+1
= 1 + X − X + X 2 − X 2 + · · · + X n − X n − X n+1
= 1 − X n+1 .

La notion suivante, bien que simple, s’avère être très utile :


Définition 1.5. [degré] Soit P un polynôme à coefficients dans K. Le degré de P ,
noté deg P , est le plus grand naturel n tel que le coefficient de X n soit non-nul.
Par convention, le degré du polynôme nul est −∞.
Exemple 1.6.
(1) deg(X) = 1,
(2) deg(λ) = 0 quelque soit λ ∈ K∗ ,
(3) deg(X 2 − X + 1) = 2,
(4) deg(2 − X 3 + X 7 ) = 7.
Proposition 1.7. Soient P et Q deux polynômes dans K[X]. Alors on a
(1) deg(P Q) = deg(P ) + deg(Q),
(2) deg(P + Q) ≤ max {deg P, deg Q},
(3) si de plus deg P 6= deg Q alors
deg(P + Q) = max {deg P, deg Q}

Démonstration. (Ceci est une démonstration ultra détaillée pour quelque chose de
très simple ; n’hésitez pas à la simplifier pour la rendre à votre goût.) Si les deux
polynômes sont nuls alors deg P = deg Q = −∞ et comme −∞ − ∞ = −∞ le lemme
est démontré dans ce cas. De manière analogue, si un des deux est nul, disons P ,
alors 0 · Q = 0 et 0 + ·Q et le lemme est démontré aussi. Le cas Q = 0 est symétrique.
Supposons maintenant que les polynômes P et Q sont tous le deux non nuls. On les
écrit selon les puissances de X :
P = a0 + a1 X + · · · + an X n avec an 6= 0
Q = b0 + b1 X + · · · + bk X k avec bk 6= 0.
Rappelez vous que dans cette écriture on considère que an+1 = an+2 = · · · = 0 et
bk+1 = bk+2 = · · · = 0.
Quand on fait la somme P + Q on voit que le coefficient de X N pour N > max{n, k}
est nul et donc le degré de P + Q est inférieur ou égal au maximum entre n et k.
Ceci démontre le point (2).
Pour démontrer le point (3) on remarque que si k 6= n alors k > n ou bien
k < n. Les situations étant symétriques, il suffit de considérer le cas k > n.
Alors le coefficient de X k dans P + Q est égal à bk qui est non nul, et donc

2. cette formule est à savoir les yeux fermés à 4h du mat ! !


(2)
deg(P + Q) ≥ k = max {k, n} ≥ deg(P + Q). Du coup deg(P + Q) = k et le point
(3) est démontré.
Démontrons maintenant (1). Faisons-le d’abord en une façon moins rigoureuse mais
néanmoins correcte. On développe P Q :
P Q = (an X n + an−1 X n−1 + . . . a1 X + a0 )(bk X k + bk−1 X k−1 + · · · + b1 X + b0 )
= an bk X n+k + (an bk−1 + an−1 bk )X n+k−1 +
+ (an bk−2 + an−1 bk−1 + an−2 bk )X n+k−2 + · · · +
(a1 b0 + a0 b1 )X + a0 b0
et on voit que deg P Q = n + k qui est égal à deg P + deg Q.
En voici une variante plus formelle. On a P = i≥0 ai X i et Q = j≥0 bj X j . En
P P
les multipliant on trouve
X
PQ = ai bj X i+j
i,j≥0
 
X X  r
= 
 ai bj 
X
r≥0 i,j≥0
i+j=r
     
n+k−1
X  X  r  X  n+k X  X  s
= 
 ai bj
X + 
  ai bj 
 X + 
 ai b j
X

r=0 i,j≥0 i,j≥0 s>n+k i,j≥0
i+j=r i+j=n+k i+j=s

Remarquons maintenant, en utilisant par exemple le point (2) plein de fois, que le
premier terme est un polynôme de degré au plus n + k − 1.
Pour calculer le deuxième terme on observe que dans la somme il n’y a qu’un terme
non nul, soit an bk X n+K . Le deuxième terme est donc égal à an bk X n+k qui est de
degré n + k.
Enfin, le troisième terme est nul car ai bj = 0 si i + j ≥ n + k + 1 parce-que soit
i > n soit j > k et donc soit ai = 0 soit bj = 0.
Comme le premier terme et le deuxième sont de degré différent, d’après (3), on peut
en tirer que deg(P Q) = n + k et le point (1) est démontré. 

1.2. Divisibilité. On commence par faire un peu d’arithmétique dans K[X], c’est à
dire, on va imiter les notions que l’on a dans Z mais cette fois ci pour les polynômes.
Définition 1.8. Soit A et B des polynômes dans K[X]. On dit que B divise A, et
on note B | A, s’il existe un polynôme Q dans K[X] tel que A = BQ.

Au lieu de « B divise A » on peut aussi dire « A est divisible par B ». Ce sont deux
formulation équivalentes.
Attention!

Ne pas inverser « A divise B » avec « B divise A » ! !


Exemple 1.9.
(1) Le polynôme B = X divise A = X 3 . En effet, en posant Q = X 2 dans la
Definition 1.8 on trouve BQ = A.
(2) Le polynôme constant B = λ pour λ ∈ K∗ divise tout autre polynôme. En
effet, si A est un autre polynôme dans K[X], en posant Q = λ−1 A on trouve
BQ = A. Pourquoi a-t-on besoin que λ 6= 0 ?
(3) Tous les polynômes divisent le polynôme nul A = 0. En effet, si B est un
polynôme arbitraire, en posant Q = 0 on trouve BQ = A et donc B divise
A.
(4) Le polynôme B = (X − 1) divise A = X 5 − 1. En effet, on posant Q =
X 4 + X 3 + X 2 + X + 1 on vérifie que BQ = A.(Faites le !)
(5) Le polynôme B = X 4 + X 2 + 1 divise A = X 6 − 1. En effet, on posant
Q = X 2 − 1 on vérifie que BQ = A. (Faites le !)
(6) Le polynôme B = X − 1 divise A = X 3 − 2X 2 + 6X − 5. En effet, on posant
Q = X 2 − X + 5 on vérifie que BQ = A. (Faites le !)
(7) Soient A, B, C des polynômes dans K[X] tels que A = BC. Alors B | A
et C | A. Pour le premier, on prend Q = C et pour le deuxième on prend
Q = B.
(8) Un cas particulier, mais très important, de l’exemple précédent : pour tout
λ ∈ K∗ et pour tout polynôme A on a que λA divise A. En effet, λ−1 ·(λA) =
A.
Corollaire 1.10 (de la Proposition 1.7). Soient A et B deux polynômes non nuls.
Si A divise B, alors deg A ≤ deg B.

Démonstration. Puisque A divise B, par la définition de la divisibilité (Definition 1.8)


on a qu’il existe Q ∈ K[X] tel que B = AQ et de plus Q 6= 0 car B = 6 0. Comme
le degré d’un produit est la somme des degrés (voir Proposition 1.7), on trouve
deg B = deg A + deg Q ≥ deg A car deg Q ≥ 0. 

Morale

Le degré d’un polynôme non nul est toujours plus grand ou égal aux degrés de
ses diviseurs.

Corollaire 1.11. Soient A et B deux polynômes. Supposons deg B > deg A. Dans
cette situation, si B divise A alors A = 0.

Démonstration. On raisonne par contradiction. Supposons par l’absurde que A 6= 0.


On peut donc appliquer le Corollaire 1.10 et tirer que deg B ≤ deg A qui est une
contradiction avec l’hypothèse. Donc A = 0. 

Exercice 1.12. Soit P et Q deux polynômes non nuls dans K[X]. Supposons que
P | Q et Q | P . Démontrer qu’il existe λ ∈ K tel que P = λQ.
1.3. La division euclidienne. Soient A, B deux polynômes dans K[X] avec B 6= 0.
On voudrait quantifier à quel point A peut être divisé par B. Pour cela on introduit
la division euclidienne qui est l’analogue pour les polynômes de la division euclidienne
des nombres entiers.
Proposition 1.13 (division euclidienne). Soient A et B deux poynômes dans K[X]
avec B =6 0. Alors ils existent et ils sont uniques deux polynômes Q et R dans K[X]
tels que
(1) A = BQ + R

(2) deg R < deg B.

Démonstration. Montrons d’abord l’unicité (en grand détail). Supposons qu’ils


existent deux paires (Q1 , R1 ) et (Q2 , R2 ) vérifiant les deux conditions de l’énoncé.
Alors de A = BQ1 + R1 = BQ2 + R2 on tire BQ1 − BQ2 = R2 − R1 d’où
B(Q1 − Q2 ) = R2 − R1 . D’après la définition de la divisibilité (Definition 1.8) on
a que B divise R2 − R1 . Mais deg R2 et deg R1 sont strictement plus petits que
deg B d’après la deuxième condition de l’énoncé et donc leur différence aussi (voir
Proposition 1.7[2]). Mais R2 −R1 ne peut avoir un diviseur de degré plus grand que le
sien que s’il est nul (voir Corollaire 1.11). Donc R2 = R1 et ensuite B(Q1 − Q2 ) = 0
qui entraîne Q1 = Q2 car B est supposé non nul. Ceci achève la démonstration de
l’unicité.
ll nous reste à démontrer l’existence. On considère l’ensemble
I := {S ∈ K[X] | il existe un P ∈ K[X] tel que A = BP + S}.
Cet ensemble n’est pas vide car A est bien un élément qui y appartient (vérifiez
le !). Comme tout sous-ensemble de N admet un plus petit élément, il existe dans I
un polynôme du plus petit degré (parmi les polynômes dans I). Notons le R. Par
définition de I il existe donc un Q ∈ K[X] tel que A = BQ + R. Il nous reste à voir
que deg R < deg B pour conclure que la paire Q, R trouvée convient.
Faisons le par réduction à l’absurde. Supposons donc que deg R ≥ deg B. On écrit
B et R
B = cn X n + . . . avec cn 6= 0
r
R = ar X + . . . avec r ≥ n et ar 6= 0

Puisque r ≥ n et cn 6= 0 on peut considérer le polynôme P := c−1 n ar X


r−n
. On
remarque que deg(R − BP ) < r et donc le polynôme A − B(Q + P ) est de degré
strictement inférieur à R et, par construction, appartient à I. Ceci est une contra-
diction avec la minimalité du degré de R et la démonstration de deg R < deg B est
terminée et avec elle la Proposition. 
Remarque 1.14. Dans la Proposition 1.13, Q s’appelle le quotient et R le reste
de la division euclidienne de A par B. Souvent on écrit R = (A mod B) ou bien
A ≡ R (mod B) ou bien R ≡B A.
Plus généralement, pour un polynôme non nul P et des polynômes arbitraires A et
B on dit que A est congru à B modulo P , et on écrit A ≡ B (mod P ), si P divise
A − B.
Exemple 1.15.
(1) La division euclidienne de X 3 par X − 1 est
X 3 = (X − 1)(X 2 + X + 1) + 1.
(2) La division euclidienne de X 4 + X − 1 par X 2 + 1 est
X 4 + X − 1 = (X 2 + 1)(X 2 − 1) + X

1.4. Idéaux de K[X].


Définition 1.16. Un sous-ensemble non-vide I de K[X] est un idéal si
— P + Q ∈ I quelque soient P, Q ∈ I,
— AP ∈ I quelque soient P ∈ I et A ∈ K[X].
Remarque 1.17. De façon plus compacte, I ⊂ K[X] est un idéal si et seulement si
I + I ⊆ I et K[X]I ⊆ I.
Exemple 1.18.
(1) I = {0} est un idéal de K[X].
(2) I = K[X] est un idéal de K[X].
(3) I = {P ∈ K[X] | P (1) = 0} est un idéal de K[X].
(4) I = {P ∈ K[X] | P (0) = 1} n’est pas un idéal de K[X].
(5) I = {P ∈ K[X] | P (0) = P 0 (0) = 0} est un idéal de K[X].
(6) I = {P ∈ bK[X] | P divisible par X 2 + X + 1} est un idéal de K[X].
Exercice 1.19. L’étudiant sérieux vérifiera les assertions précédentes (juste en
vérifiant que la définition d’idéal est satisfaite).
Exemple 1.20. Soit f ∈ K[X] un polynôme non-nul. Alors idéal principal

I = f K[X] = {P ∈ K[X] | P divisible par f }


est un idéal de K[X]. On le note (f ) et on l’appelle l’idéal principal engendré par f .
En effet, si P, Q ∈ (f ) cela signifie que f divise P et Q, donc f divise P + Q, d’où
P + Q ∈ (f ). De plus, si A ∈ K[X] alors comme f divise P il divise aussi AP , donc
AP ∈ (f ). Cela prouve que (f ) est en effet un idéal.
Il est dit principal car il est engendré par un seul élément.
Lemme 1.21. Soient f et g deux polynômes dans K[X]. Alors f divise g si et
seulement si (g) ⊂ (f ).

Démonstration. Supposons d’abord que f divise g. Alors il existe q ∈ K[X] tel que
g = f q. On en déduit que ga = f qa ∈ (f ) quelque soit a ∈ K[X]. En d’autres mots
(g) ⊂ (f ).
Réciproquement, supposons (g) ⊂ (f ). En particulier, g ∈ (f ) et donc par définition
de l’idéal (f ) on a qu’il existe q ∈ K[X] tel que g = f q, en d’autres mots f divise
g. 

Bien que le lemme soit simple on va voir que son utilisation nous fera gagner pas
mal de temps. Assurez-vous de l’avoir bien compris ainsi que sa démonstration.
Lemme 1.22. Soient f, g ∈ K[X]. Supposons l’égalité des idéaux (f ) = (g). Alors
il existe λ ∈ K∗ tel que f = ±λg. En particulier, si f et g sont unitaires on a f = g.

Démonstration. En effet, (f ) = (g) implique f divise g et g divise f (voir Lemme 1.21).


Donc il existe q ∈ K[X] tel que f = qg et puisque f divise g on doit avoir
deg(f ) ≤ deg(g). On en déduit deg(q) = 0, donc q = λ est un scalaire.
Si de plus f et g sont unitaires on doit avoir λ = 1 car le coefficient dominant de λg
est λ. 
Exemple 1.23. Prenons f, g ∈ K[X] deux polynômes. L’idéal engendré par f et g,
noté (f, g), est défini par
(f, g) = {af + bg | a, b ∈ K[X]}.
Exercice : vérifier qu’il s’agit bien d’un idéal !
Par exemple, si f = X 2 et g = X − 1, on peut voir que (f, g) = (1) = K[X]. En effet,
quelque soit A ∈ K[X] on a A = Af − A(X + 1)g appartient à (f, g) par définition.
Exemple 1.24. Soit f1 , . . . , fr ∈ K[X] des polynômes. L’idéal engendré par eux,
noté (f1 , . . . , fr ) est défini par
(f1 , f2 , . . . , fr ) = {a1 f1 + a2 f2 + · · · + ar fr | ai ∈ K[X] pour tout i}.

Pour r = 1 et r = 2 on retrouve les exemples précédents.


Exemple 1.25. Regardons l’idéal I = (X 2 − 1, X 3 − 1). Il s’agit de considérer tous
les polynômes de la forme
(X 2 − 1)A + (X 3 − 1)B, avec A, B ∈ K[X].
En prenant A = −X et B = 1 on trouve que X − 1 appartient à I et donc
(X − 1) ⊂ I car I est un idéal. Réciproquement, on a (X 2 − 1)A + (X 3 − 1)B =
(X − 1)((X + 1)A + (X 2 + X + 1)B) ∈ (X − 1) et donc I ⊂ (X − 1).
On a démontré l’égalité d’idéaux (X 2 − 1, X 3 − 1) = (X − 1).

Le théorème suivant est utilisé pour définir le pgcd et le polynôme minimal d’un
endomorphisme (voir Definition 4.28) les deux étant des concepts fréquemment
utilisés :
Théorème 1.26. Tout idéal de K[X] est principal.

Démonstration. Soit I un idéal de K[X]. Si I = {0} on a fini. Sinon, soit f ∈ I un


polynôme non-nul de degré minimal. Démontrons que I = (f ).
Par la définition d’idéal (2-ème axiome) on a (f ) ⊆ I.
Soit g ∈ I non-nul. Alors par la division euclidienne (Proposition 1.13) on a qu’il
existe q, h ∈ K[X] tels que g = qf + h avec h ∈ K[X] de degré strictement plus petit
que deg(f ).
Puisque g, qf ∈ I et I est un idéal on déduit que g − qf ∈ I, soit h ∈ I. Mais h
est de degré strictement plus petit que deg(f ), donc h = 0 car f est un polynôme
non-nul de I de degré minimal.
On a démontré que tout élément g ∈ I s’écrit comme qf pour un q ∈ K[X], d’où
I ⊂ (f ). En tout on a I = (f ). 
Remarque 1.27. (Extra) La preuve précédente fonctionne-t-elle aussi pour K =
Z ? Pensez à l’idéal engendré par 2 et X. Est-il principal dans Z[X] ? Revoyez
attentivement tous les arguments pour trouver l’endroit où la preuve précédente se
casse pour K = Z.

Voici comment retrouver la notion de divisibilité avec les idéaux :

1.5. Le plus grand diviseur commun.


Introduisons un peu de vocabulaire :
Définition 1.28. Soit P = a0 + a1 X + · · · + an X n un polynôme dans K[X] tel
que an 6= 0. On appelle le coefficient a0 le terme constant et le coefficient an le
coefficient dominant. On dit que le polynôme P est unitaire si son coefficient
dominant est 1. On dit qu’il est sans terme constant si a0 = 0.
Par convention, on dit que le polynôme nul 0 est unitaire.
Remarque 1.29. Le coefficient dominant est le coefficient de la puissance maximale
de X qui apparaît dans P .
Exemple 1.30.
(1) Le coefficient dominant du polynôme 3X + X 3 − X 4 est −1. Il est sans
terme constant.
(2) Le coefficient dominant du polynôme X 7 − X + 2 est 1 (il est donc unitaire).
Son terme constant est égal à 2.
(3) (attention à l’ordre !) Le coefficient dominant du polynôme 3X 3 − X 4 +
18X 5 − 2X + 12 − 3x2 est 18 et son terme constant est 12.
Exercice 1.31. Le coefficient dominant d’un produit est le produit des coefficients
dominants. Pareil pour les termes constants.
Définition 1.32. Soient A et B deux polynômes dans K[X]. On appelle le plus le plus grand diviseur
commun
grand diviseur commun de A et B, et on le note pgcd(A, B), le générateur 3
unitaire de l’idéal (A, B) ⊆ K[X] engendré par les polynômes A et B.
Remarque 1.33. On pourrait penser qu’il existe plusieurs générateurs unitaires de
l’idéal (A, B). Le Lemme 1.22 sur les idéaux principaux nous garantit qu’il n’y a
qu’un seul générateur unitaire( !).

Cette définition ne nous aide pas tellement à trouver le pgcd de deux polynômes ! !
Il nous faudra développer quelques outils pour cela mais d’abord voyons quelques
exemples :
Exemple 1.34.
(1) pgcd(2X, 3X) = X (doit être unitaire),
(2) pgcd(0, 3X 2 − 2X + 1) = X 2 − 23 X + 13 (doit être unitaire !),
(3) pgcd(3X 3 − 7X, 3X 3 − 7X) = X 3 − 73 X (doit être unitaire !),

3. ceci a du sens car tout idéal dans K[X] est principal d’après Théorème 1.26
(4) pgcd(X 2 , X 3 ) = X 2 ,
(5) pgcd(X 2 − 1, X 3 − 1) = X − 1,
(6) pgcd(1 + X + X 2 , 1 + X) = 1,
(7) pgcd(X 12 − 1, X 8 − 1) = X 4 − 1.
Remarque 1.35. La notion de pgcd existe pour des anneaux plus généraux que K[X]
où on considère « le plus grand... » par rapport à la relation d’ordre donnée par la
divisibilité. Par contre on ne parle pas de « le plus grand... » parce-que l’on n’a pas
de moyen de le rendre unique. Du coup, dans ce cadre on parle plutôt de « un plus
grand .... ». C’est un des avantages des anneaux Z (on demande positif) et K[X]
(on demande unitaire) que l’on peut le rendre unique.
Définition 1.36. (ppcm) Soient A et B deux polynômes dans K[X]. Le plus
petit multiple commun de A et B, noté ppcm(A, B), s’il existe, est le polynôme
unitaire, de degré minimal qui est à la fois divisible par A et par B.
Exercice 1.37. Démontrer que le ppcm de f et g n’est rien d’autre que le générateur
unitaire de l’idéal (f ) ∩ (g). Commencer d’abord par montrer que (f ) ∩ (g) est bien
un idéal.
Exemple 1.38.
(1) ppcm(X, 2X 3 ) = X 3 (car unitaire),
(2) ppcm(X − 1, X + 1) = X 2 − 1,
(3) ppcm(3, 7) = 1,
(4) ppcm(X − 1, 2X 2 − 2X + 1) = 2X 3 − 4X 2 + 3X − 1.

Un des théorèmes clés concernant le pgcd est le suivant :


Théorème 1.39 (Bézout). Soient A et B deux polynômes dans K[X] dont au
moins un est non nul. Notons par D leur pgcd. Alors il existe U , V des polynômes
dans K[X] tels que
AU + BV = D.

Démonstration. On considère l’idéal I := (A, B) ⊂ K[X] engendré par A et B.


D’après la définition du pgcd, voir Definition 1.32, on a I = (D) avec D = pgcd(A, B).
Puisque D appartient à I, il s’écrit sous la forme AU + BV avec U, V ∈ K[X]. 

Démonstration alternative : [sans utiliser la notion d’idéal ou le fait que K[X] est
principal]
Soit I le sous-ensemble de K[X] défini par
I := {P ∈ K[X] | P 6= 0 et ils existent U, V ∈ K[X] tels que P = AU + BV } .
C’est un ensemble non-vide : en effet, A · 0 + B · 1 = B et A · 1 + B · 0 = A donc A
et B sont dans I.
Notons les propriétés suivantes de I : la somme et la différence de deux éléments de
I, pourvu que non nulle, est aussi dans I (vérifier le !). Un multiple d’un élément
de I est aussi dans I. (vérifier le !)
On prend D0 un polynôme unitaire de I du plus petit degré (a priori, il pourrait y
en avoir plusieurs). On va démontrer que D0 = D et ceci prouvera le théorème.

(1) Démontrons que D divise D0 . En effet, comme D | A et D | B on a que


D | AU + BV quelque soient U, V ∈ K[X] et donc D divise tous les éléments de I.
En particulier D divise D0 .

(2) Démontrons que D0 divise à la fois A et B. On ne le fait que pour A car


l’autre est entièrement analogue. La division euclidienne de A par D0 nous donne :
A = D0 Q + R où deg(R) < deg(D0 ). Si R est non nul, il est forcément dans I (voir
les exercices précédents). Mais comme D0 est le polynôme de degré minimal de I et
deg(R) < deg(D0 ) on a une contradiction. Alors R est nul, soit D0 divise A.

(3) Puisque D est le polynôme de degré maximal qui divise à la fois A et B on en


déduise de (2) que deg(D0 ) ≤ deg(D). Mais (1) nous donne deg(D) ≤ deg(D0 ) et
donc deg(D) = deg(D0 ). Comme D divise D0 (d’après le (1)) et que les deux sont
unitaires, on tire que D = D0 .

Proposition 1.40. Soient A et B deux polynômes dans K[X] dont au moins un


est non nul. Alors quelque soit P un polynôme dans K[X] qui divise A et B il divise
également pgcd(A, B).

Démonstration. D’après le Lemme 1.21 on a (A) ⊂ (P ) et (B) ⊂ (P ). On en


déduit (A, B) ⊂ (P ). D’après la définition du pgcd on a (pgcd(A, B)) = (A, B)
et du coup (pgcd(A, B)) ⊂ (P ). En utilisant à nouveau le Lemme 1.21 on déduit
P | pgcd(A, B). 

Démonstration alternative : posons D := pgcd(A, B) et soient U et V deux polynômes


dans K[X] tels que D = AU + BV (comme dans le théorème de Bézout). Comme
P divise A et B il divise également AU + BV , soit P divise D. 

Lemme 1.41. Soient A, B, Q, R des polynômes de K[X] tels que A = BQ + R.


Alors pgcd(A, B) = pgcd(B, R).

Démonstration. Il suffit de voir que (A, B) = (B, R) et ensuite utiliser la définition


du pgcd. Les seules choses non-triviales à vérifier sont
— A ∈ (B, R) qui découle du fait que BQ + R ∈ (B, R) et A = BQ + R,
— R ∈ (A, B) qui découle aussi du fait que A − BQ ∈ (A, B) et R = A − BQ.


L’énoncé suivant nous fournit un algorithme qui nous permet de trouver le pgcd
de deux polynômes. Il s’appelle l’algorithme d’Euclide d’après le mathématicien
Euclide qui l’a introduit pour les nombres entiers. On démontrera aussi qu’il s’agit
bien d’un algorithme qui fait ce qu’il prétend de faire !

Proposition 1.42 (l’algorithme d’Euclide). Soient A et B deux polynômes dans


K[X], dont au moins un est non nul. Alors leur pgcd est l’unitarisé du dernier
reste non nul dans l’algorithme suivant où chaque ligne représente une division
euclidienne :
R1 = (A mod B)
R2 := (B mod R1 )
R3 := (R1 mod R2 )
R4 := (R2 mod R3 )
..
.
Rn := (Rn−2 mod Rn−1 )
0 = Rn+1 := (Rn−1 mod Rn )

Démonstration. D’après le Lemme 1.41 appliqué successivement on a que pgcd(A, B) =


pgcd(B, R1 ) = pgcd(R1 , R2 ) = · · · = pgcd(Rn−1 , Rn ) = pgcd(Rn , 0) = a−1 Rn où a
est le coefficient dominant de Rn (pourquoi est-il non nul ?). 
Proposition 1.43. Soient A et B deux polynômes unitaires dans K[X]. Alors leur
ppcm existe et il satisfait
ppcm(A, B) pgcd(A, B) = AB.

Démonstration. Exercice ! 

Le théorème de Bézout nous donne des polynômes U et V tels que AU + BV =


pgcd(A, B). Pourtant le théorème ne nous dit pas comment trouver de tels U et V .
Ceci est important pour résoudre des équations polynômiale du type AU + BV = C
où les inconnues sont U et V .
En fait, l’algorithme d’Euclide nous fournit aussi un algorithme pour trouver les
coefficients de Bézout :
Proposition 1.44. Soient A et B des polynômes dans K[X], dont au moins un
est non nul. En remontant l’algorithme d’Euclide on arrive à écrire pgcd(A, B) =
AU + BV .

Démonstration. D’abord, qu’est-ce que l’on veut dire par « en remontant » : ceci
signifie que l’algorithme d’Euclide consiste en plusieurs division euclidiennes et si
on écrit le reste explicitement en fonction des autres éléments et que l’on remonte
sur chaque ligne jusqu’à la première on aura écrit le dernier polynôme, à savoir le
pgcd, en fonction de A et B.
Soyons plus explicite et écrivons l’algorithme d’Euclide en donnant aussi un nom
aux quotients
R1 = A − BQ1 Rn = AU + BV
R2 = B − R1 Q2 ↑
R3 = R1 − R2 Q3 Rn = −Rn−3 (Qn − Qn−1 (1 + Qn−1 Qn )) + Rn−4 (1 + Qn−1 Qn )
.. Rn = Rn−2 − (Rn−3 − Rn−2 Qn−1 )Qn
.
Rn−1 = Rn−3 − Rn−2 Qn−1 = −Rn−3 Qn + Rn−2 (1 + Qn−1 Qn )
Rn = Rn−2 − Rn−1 Qn Rn = Rn−2 − Rn−1 Qn
Le dernier reste non-nul est Rn . Dans la colonne de gauche on a Ri+1 écrit en
fonction de Ri , Ri−1 et Qi+1 .
Pour remplir la colonne à droite on commence par la dernière ligne et on exprime Rn
en fonction de Rn−1 , Rn−2 et Qn . Ensuite on remplace Rn−1 par son expression de
la colonne de gauche. Après on remplace le Rn−2 par son expressions de la colonne
de gauche, etc. A chaque opération on écrit Rn en fonction de Ri+1 et Ri avec le i
qui baisse de 1 à chaque opération par rapport à la précédente. On finit par arriver
à A et B et donc on aura écrit Rn = AU + BV . 

Voici un exemple
Exemple 1.45. On veut trouver des polynômes U et V tels que (1 + X + X 2 )U +
X 2 V = pgcd(1 + X + X 2 , X 2 ). On fait l’algorithme d’Euclide en tenant compte des
quotients et on le remonte comme expliqué dans la proposition précédente :
1 + X + X 2 = X 2 · 1 + (1 + X) 1 = (1 + X + X 2 − X 2 )(1 − X) + X 2
= (1 + X + X 2 )(1 − X) + X 2 · X
X 2 = (1 + X)X − X 1 = (1 + X) − (1 + X)X + X 2 = (1 + X)(1 − X) + X 2
1+X =X ·1+1 1 = (1 + X) − X
donc on a trouvé U = 1 − X et V = X.
N’oubliez pas que dans la colonne de gauche on est allé du haut vers le bas mais
dans la colonne de droite on est allé du bas vers le haut.

C’est algorithme est assez laborieux et sa manipulation nécessite beaucoup d’at-


tention : il faut toujours être très attentif à ne pas mélanger les polynômes qui
apparaissent. On va présenter un autre algorithme, dû a Blankinship [?], qui par
une petite astuce de type matricielle, nous aide a mieux ranger les éléments et donc
le risque de confusion diminue dramatiquement.
Algorithme de Blankinship pour le pgcd et les coefficients de Bézout.
On commence par ranger nos deux polynômes A et B dans une matrice sous la
forme suivante  
1 0 A
0 1 B
Ensuite on fait des opérations élémentaires 4 sur les lignes jusqu’à ce qu’à la place
de A ou de B on trouve un zéro. (Les opérations que l’on fait ont comme but de
réduire le degré (ou la complexité) de A ou de B.) À ce moment là, sur l’autre ligne
on aura tout à droit le pgcd (à un scalaire près) et les coefficients de Bézout (au
même scalaire près).
Exercice 1.46. *Essayer de démontrer que l’algorithme produit bien ce qu’il
prétend, c’est à dire, étant donnés deux polynômes A et B dont au moins un est
non nul, démontrer que l’algorithme de Blankinship fournit des polynômes U et V
tels que AU + BV = pgcd(A, B).

Faisons un exemple pour illustrer cet algorithme plus en détail :


4. additionner une ligne à une autre, multiplier une ligne par un polynôme non nul, soustraire
un multiple d’une ligne à une autre
Exemple 1.47. Prenons A = X 3 + X − 2 et B = X 2 − 1. On faisant l’algorithme
de Blankinship on trouve à la fois le pgcd et les coefficients de Bézout.
1 0 X3 + X − 2
   
1 −X 2X − 2
→ →
0 1 X2 − 1 0 1 X2 − 1
 
1 −X 2X − 2

− 12 (X + 1) 12 X(X + 1) 0
1
et donc X − 1 est le pgcd et 2 et − 12 X sont les coefficients de Bézout.
On vérifie pour s’assurer
1 1 1 1
(X 3 + X − 2) − (X 2 − 1) X = X − 1 + X = X − 1.
2 2 2 2
Exemple 1.48. Trouvons les coefficients de Bézout pour A = X 5 + 3X 4 + 2X 3 −
X 2 − 3X − 2 et B = X 4 + 2X 3 + 2X 2 + 7X + 6.
On le fait avec l’algorithme de Blankinship
1 0 X 5 + 3X 4 + 2X 3 − X 2 − 3X − 2
 

0 1 X 4 + 2X 3 + 2X 2 + 7X + 6
X4 + ∗
 
1 −X
0 1 X 4 + 2X 3 + 2X 2 + 7X + 6

1.6. Lemmes sur le PGCD. Toutes les démonstrations s’appuient sur la définition
du pgcd(A, B) comme étant le générateur unitaire de l’idéal engendré par A et B
(voir Definition 1.32 et Théorème 1.26).
Lemme 1.49. Soient A, B, C ∈ K[X] non nuls. Alors si A est unitaire on a
pgcd(AB, AC) = A pgcd(B, C).

Démonstration. On doit démontrer l’égalité d’idéaux


(AB, AC) = (A pgcd(B, C))
et ensuite on finit grâce au fait qu’un idéal de K[X] à un unique générateur unitaire,
voir Théorème 1.26.
Par la définition de l’idéal (AB, AC) on a
(AB, AC) = {ABU + ACV | U, V ∈ K[X]}
= A{BU + CV | U, V ∈ K[X]}
= A(pgcd(B, C))
= A{pgcd(B, C)Q | Q ∈ K[X]}
= {A pgcd(B, C)Q | Q ∈ K[X]}
= (A pgcd(B, C)). 

Lemme 1.50. Soient A, B, C ∈ K[X] non nuls. Supposons pgcd(A, B) = 1. Alors


pgcd(A, BC) = pgcd(A, C).
Démonstration. On doit démontrer l’égalité d’idéaux (A, BC) = (A, C). Comme
A, BC ∈ (A, C) on a immédiatement l’inclusion (A, BC) ⊂ (A, C).
Pour l’inclusion inverse il nous faut démontrer que A, C ∈ (A, BC) et seulement
pour C c’est non-trivial.
Par le théorème de Bézout (voir Théorème 1.39) il existe U, V ∈ K[X] tels que
AU + BV = 1. En multipliant par C on a A · CU + BC · V = C et donc C ∈ (A, BC)
ce qui finit la démonstration de (A, C) = (A, BC). 

Corollaire 1.51. Soient A1 , . . . , Ar , B1 , . . . , Bs ∈ K[X] non nuls. Supposons pgcd(Ai , Bj ) =


1 pour tous les i, j. Alors
pgcd(A1 A2 · · · Ar , B1 B2 · · · Bs ) = 1.

Démonstration. 1er cas : r = 1 et s arbitraire. On fait par récurence sur s. Par


récurrence. L’initialisation sera le Lemme 1.50.
Si r = 1 et s = 2 on utilise le Lemme 1.50.
Supposons maintenant s > 2. D’après l’hypothèse de récurrence on a pgcd(A1 , B1 . . . Bs−1 ) =
1 et comme pgcd(A1 , Bs ) = 1 d’après le Lemme 1.50 on trouve pgcd(A1 , B1 · · · Bs−1 Bs ) =
1.
On a donc démontré l’énoncé pour r = 1 et s arbitraire.
2ème cas : r > 1 et s arbitraire. Le cas r = 1 et s arbitraire on a pgcd(Ai , B1 B2 · · · Br ) =
1 pour tout i. On posant B := B1 . . . Br on voit que l’on est dans la situa-
tion du premier cas : pgcd(Ai , B) = 1 pour tout i. On peut donc conclure que
pgcd(A1 . . . As , B) = 1. 

Corollaire 1.52. Soient A, B ∈ K[X] non nuls. Supposons pgcd(A, B) = 1. Alors


pour tout m, n ∈ N∗ on a
pgcd(An , B m ) = 1.

Démonstration. Il suffit d’appliquer le corollaire précédent (Corollaire 1.51 pour


A1 = A2 = · · · = As = A et B1 = B2 = · · · = Br = B. 

Lemme 1.53. Soient A, B, C ∈ K[X] non nuls. Supposons pgcd(A, B) = 1. Alors


AB | C ⇔ (A | C et B | C) .

Démonstration. L’implication ⇒ est triviale car A | AB et B | AB.


Pour la réciproque, soient U, V ∈ K[X] tels que AU + BV = 1 (voir Bézout
Théorème 1.39). En multipliant par C on trouve ACU + BCV = C. D’après A | C
et B | C on trouve AB | ACU et AB | BCV , donc AB | ACU + BCV , soit
AB | C. 

Corollaire 1.54. Si A, B ∈ K[X] sont non-nuls, unitaires et premiers entre eux


alors le plus grand multiples commun de A et B est égal a leur produit : ppcm(A, B) =
AB
Démonstration. D’après le Lemme 1.53 on trouve que tout multiple de A et de B
doit être divisible par AB. Comme le ppcm est le plus petit (par degré) tel polynôme
il en suit que c’est égal à AB. 
Corollaire 1.55. Soient A, B, C ∈ K[X] non nuls. Alors
ppcm(A, B) | C ⇔ (A | C et B | C).

Démonstration. Ecrivons A = A0 D et B = B 0 D. 
Lemme 1.56. Soient A1 , . . . , Ar , B ∈ K[X] non nuls. Supposons pgcd(Ai , Aj ) = 1
pour tout i 6= j. Alors
A1 A2 · · · Ar | B ⇔ (Ai | B, pour tout i) .

Démonstration. L’implication ⇒ est triviale car Ai | A1 . . . Ar pour tout i.


Pour la réciproque on fait par récurrence sur r. Si r = 2 c’est le Lemme précédent
Lemme 1.53.
Supposons r > 1. D’après l’hypothèse de récurrence on a A1 . . . Ar−1 | B. On sait
d’après le Corollaire 1.51 que pgcd(A1 . . . Ar−1 , Ar ) = 1 et d’après l’hypothèse Ar | B.
Donc en appliquant encore une fois le Lemme 1.53 on trouve (A1 . . . Ar−1 )Ar | B. 

1.7. Racines et multiplicités.


Définition 1.57. Soient P = a0 + a1 X + · · · + an X n un polynôme dans K[X] et
soit α un élément de K. Alors la valeur de P en α, ou l’évaluation de P en α, est le
nombre dans K définie par
P (α) = a0 + a1 α + · · · + an αn .

On dit que α est une racine de P quand P (α) = 0.


Exemple 1.58.
(1) Pour P = X 2 + X + 1 et α = −1 on a P (−1) = (−1)2 − 1 + 1 = 1. Ensuite
P (2) = 4 + 2 + 1 = 7.
(2) Pour P = X 4 − 1 et α = i ∈ C on a P (i) = i4 − 1 = 1 − 1 = 0.
(3) Pour P = 3X 3 − 2X + 5 et α = −2 on a P (−2) = −24 + 6 − 5 = −25.

Voici la relation entre les racines et la divisibilité


Proposition 1.59. Soient P un polynôme dans K[X] et α un nombre dans K. Alors
le reste de la division euclidienne de P par X − α est égal à P (α). En particulier,
X − α divise P si et seulement si α est une racine de P .

Démonstration. Considérons la division euclidienne de P par X − α :


P = (X − α)Q + R, où R satisfait deg(R) < 1.
Puisque le degré de R est un entier ou −∞ on a bien deg(R) est un polynôme
constant (possiblement nul), disons R = λ avec λ un élément de K.
En évaluant en α on trouve P (α) = (α − α)Q(α) + R(α) = R(α) = λ. On a donc
bien démontré que R est le polynôme constant égal à P (α). 
Exemple 1.60.
(1) Le polynôme P = X 7 + 2X 2 − 1 est divisible par X + 1. En effet, il suffit
de calculer la valeur en −1 (voir Proposition 1.59). On trouve P (−1) =
(−1)7 + 2(−1)2 − 1 = 0 d’où X + 1 divise P .
(2) Le polynôme P = X 2 − X − 2 est divisible par X + 1 et par X − 2.
(3) Le polynôme P = X 4 − 2X + 1 est divisible par X − 1.
Corollaire 1.61. (de la Proposition 1.59) Soit P un polynôme dans K[X] de degré
n ≥ 0. Alors il a au plus n racines.
En particulier, si un polynôme P a strictement plus de racines que son degré, alors
il est le polynôme nul.

Démonstration. Si α1 , . . . , αm sont des racines de P alors d’après la Proposition 1.59


appliquée m fois on trouve que (X − α1 )(X − α2 ) . . . (X − αm ) divise P et donc est
de degré plus petit que deg P . En d’autres mots m ≤ n. 

On va raffiner le corollaire précédent en introduisant la notion de multiplicité d’une


racine. Ceci est nécessaire pour distinguer des phénomènes du type : (X − 2)2 (X − 3)
et (X −2)(X −3)2 ont les mêmes racines et on voudrait dire qu’ils sont plus ou moins
les mêmes mais ce n’est pas vrai. Le problème vient du fait que les multiplicités
sont différentes.
Définition 1.62. (multiplicité d’une racine) Soit P un polynôme dans K[X] et
α une racine de P . On appelle multiplicité de la racine α, le plus grand entier
naturel n ≥ 1 (ou bien ∞) tel que (X − α)n divise P .
Exemple 1.63.
(1) Pour P = 0 le polynôme nul, tout le monde est une racine de multiplicité
infinie. En effet, pour tout α ∈ K et tout n ∈ N on a X − α divise P .
(2) La multiplicité de la racine 1 du polynôme X 2 − 2X + 1 est 2 (on parle alors
de racine double).
(3) La multiplicité de la racine 1 du polynôme X 6 − 3X 4 + 3X 2 − 1 est 3 (on
parle alors de racine triple).
(4) La multiplicité de la racine de 3 du polynôme P = (X − 3)2 (X 2 + X + 1)
est égale à 2 (racine double).
Remarque 1.64. Si α est une racine d’un polynôme P on dit qu’elle est racine
multiple si sa multiplicité est au moins égale à 2.

Rappelons que si P = a0 + a1 X + · · · + an X n est un polynôme dans K[X] on définit


son polynôme dérivé par
P 0 := a1 + 2a2 X + 3a3 X 2 + · · · + nan X n−1 .
Proposition 1.65. Soient P un polynôme non-constant dans K[X] et α ∈ K. Alors
α est une racine multiple de P si et seulement si P (α) = P 0 (α) = 0.
Démonstration. Si α est racine multiple de P alors (X − α)2 divise P . Il existe alors
Q ∈ K[X] tel que P = (X − α)2 Q. On calculant le dérivé de P on trouve
P 0 = 2(X − α)Q + (X − α)Q0
et en évaluant en α on trouve P 0 (α) = 0.
Réciproquement, supposons P (α) = P 0 (α) = 0 et montrons que α est une racine
multiple. D’après la Proposition 1.59 appliquée à P on déduit qu’il existe Q ∈ K[X]
tel que P = (X − α)Q. En dérivant on trouve P 0 = Q + (X − α)Q0 . L’hypothèse
nous dit P 0 (α) = 0 et d’òu Q(α) = 0. En appliquant la Proposition 1.59 à Q on
déduit que X − α divise Q et donc (X − α)2 divise (X − α)Q. En d’autres mots
(X − α)2 divise P . 
Exercice 1.66. Soit P un polynôme dans K[X] et soit α ∈ K une racine de P .
Démontrer que la multiplicité de α est au moins k si et seulement si (X − α)k | P .
Indication : Récurrence ? Inspirez vous de la preuve de la Proposition 1.65.
Proposition 1.67. (voir aussi Corollaire 1.61) Soit P un polynôme dans K[X] de
degré n ≥ 1. Alors le nombre de racines, comptées avec multiplicités, est inférieur
ou égal à n.

Démonstration. Soient α1 , . . . , αm les racines distinctes de P et soient k1 , . . . , km


leurs multiplicité. D’après l’Exercice 1.66 on a que (X − αi )ki divise P pour tout
i = 1, . . . , m.
Comme les nombres α1 , . . . , αm sont distincts on a que pgcd(X − αi , X − αj ) = 1
pour tout i 6= j. Du coup d’après le Corollaire 1.52 on trouve pgcd((X − αi )ki , (X −
αj )kj ) = 1 pour tout i 6= j. Le Lemme 1.56 nous permet d’en déduireP donc que
m
(X − α1 )k1 . . . (X − αm )km divise P , et en prenant le degré on trouve i=1 ki ≤
deg(P ). Autrement dit le nombre de racines de P comptées avec multiplicités est
au plus deg(P ). 

1.8. Théorème fondamental de l’algèbre : d’Alembert–Gauss. Nous voici


arrivés au théorème le plus important (et difficile) que l’on étudiera sur les polynômes.
Ceci dit que tout polynôme à coefficients complexes admet une racine complexe. Le
reste de la section sera dédié à la preuve de ce théorème. En voici l’énoncé précis :
Théorème 1.68 (d’Alembert–Gauss). Tout polynôme non-constant à coefficients
complexes a au moins une racine dans C.

Avant de démontrer ce théorème, tirons-en quelques conséquences. L’énoncé suivant


est une des conséquences les plus utilisées du Théorème 1.68 :
Corollaire 1.69. Soit P un polynôme non-constant, de degré n dans C[X]. Alors
il existe α0 , α1 , α2 , . . . , αn des éléments de K, non nécessairement distincts, tels que
P = α0 (X − α1 )(X − α1 ) . . . (X − αn ).

Démonstration. (très détaillée) L’élément α0 est le coefficient dominant de P (véri-


fiez !). On démontre le reste de l’énonce par récurrence sur le degré de P .
Si P est de degré 1 alors il est de la forme P = a1 X + a0 avec a1 6= 0. On peut le
réécrire P = a1 (X − aa01 ).
Supposons maintenant l’énoncé connu pour tous les polynômes de degré n pour
un n ≥ 1 fixé. Soit P un polynôme de degré n + 1. Par le théorème fondamental
de l’algèbre (Théorème 1.68) on a qu’il existe αn+1 ∈ C racine de P . D’après la
Proposition 1.59 on a que X − αn+1 divise P , soit il existe un polynôme Q ∈ C[X]
de degré n tel que P = Q · (X − αn+1 ). En appliquant l’hypothèse de récurrence à
Q, on trouve α0 , . . . , αn ∈ C tels que Q = α0 (X − α1 ) . . . (X − αn ). En conséquent
on a P = α0 (X − α1 ) . . . (X − αn+1 ) et l’hérédité est démontrée et avec elle le
corollaire. 

Une autre façon d’énoncer le corollaire précédent est :


Corollaire 1.70. Soit P ∈ C[X] un polynôme à coefficient complexes de degré
n ≥ 1. Alors P à exactement n racines (comptées avec multiplicités).

Démonstration. Il suffit de regarder l’énoncé du corollaire précédent. 

Remarque 1.71. On utilise souvent la conséquence suivante : si un polynôme P a


plus de racines que son degré alors il est nul !

1.9. Preuve du Théorème fondamental de l’algèbre. La preuve du Théo-


rème 1.68 est un peu soutenue et donc on prend notre temps pour bien la comprendre.
Elle utilisera un peu d’analyse et topologie : une fonction polynômiale est continue
et envoie un compact sur un compact.
Lemme 1.72. Soit f : Rn → R une fonction continue. Alors f envoie un compact
sur un compact. En particulier, sur tout disque fermé elle atteint son maximum et
son minimum.

Démonstration. Voir cours Topologie/Analyse. 

La version dont nous on aura besoin est la suivante :


Lemme 1.73. Soit D ⊂ C le disque fermé de rayon r où r > 0. Soit f : D → R
une fonction continue. Alors elle atteint son minimum sur D, c’est à dire il existe
z0 ∈ D tel que pour tout z ∈ D on ait
f (z0 ) ≤ f (z).

Démonstration. Est un cas particulier du Lemme 1.72 en observant que D est


compact. 

Lemme 1.74. Soit P un polynôme dans C[X]. La fonction polynômiale associée


C → C, définie par x 7→ P (x)
est continue.

Démonstration. Voir cours Topologie/Analyse. 

Maintenant on est prêts à démontrer le théorème fondamental de l’algèbre :


Démonstration. (Théorème 1.68) Soit P un polynôme non constant dans C[X].
Considérons f : C → R la fonction définie par z 7→ |P (z)|. C’est une fonction
continue car c’est la composée d’une fonction polynômiale (voir Lemme 1.74) avec
la valeur absolue.
Pour démontrer que P a une racine, il suffit de démontrer que la fonction f s’annule.
On le fera en deux étapes. La stratégie est la suivante : d’abord on montre que
f atteint son minimum. Ensuite on montre que ce minimum est 0 en raisonnant
par contradiction : s’il n’est pas 0 on peut construire une autre fonction dont le
minimum est censé être 1 mais pour qui on trouvera une valeur plus petite obtenant
ainsi une contradiction.
Écrivons P = a0 + a1 X + · · · + an X n avec ai ∈ C pour tout i = 0, . . . , n et an =
6 0.
Puisque P n’est pas constant, on a n ≥ 1.
(1) Montrons que f atteint son minimum sur un disque fermé.
Notons par A le maximum de {|ai | | ai =
6 0, i = 0, . . . , n}. On a les inégalités
suivantes
f (z) = |an z n + . . . a1 z + a0 |
n−1
X
n
≥ |an ||z| − |ai ||z|i (inégalité du triangle)
i=0
n−1
X
≥ |an ||z|n − A |z|i car A est le max
i=0
n
!
n A X 1
≥ |an ||z| 1− par factorisation
an i=1 |z|i
 
A X 1
≥ |an ||z|n 1 −  car on enleve encore plus de termes
an |z|i
i≥1
 
n A 1
≥ |an ||z| 1 − somme géométrique pour |z| > 1.
an |z| − 1
Il suffit de remarquer que pour |z| > 1 la dernière expression est une fonction
croissante en |z| qui tend vers ∞ quand |z| tend vers ∞. Donc il existe un R > 0
tel que pour tout z ∈ C avec |z| > R on ait f (z) > f (0). Du coup, si f atteint son
minimum ce sera forcément à l’intérieur du disque fermé D = D(0, R) de centre 0
et rayon R.
On restreignant la fonction f à D on obtient une fonction continue f : D → R.
Or comme D est compact on sait qu’elle atteint son minimum (voir Lemme 1.73).
Notons z0 ∈ D le point en lequel f atteint son minimum. Ceci veut dire que l’on a
f (z) ≥ f (z0 ), quelque soit z ∈ C.

(2) Montrons que f (z0 ) = 0 par réduction à l’absurde. Supposons que f (z0 ) 6= 0.
En divisant le polynôme P par f (z0 ) on peut donc supposer, sans restreindre la
généralité, que f (z0 ) = 1. De plus, en considérant le polynôme translaté par z0 :
Q(X) = P (X + z0 ), on peut même supposer que z0 = 0.
Le polynôme P s’écrit donc sous la forme
P = 1 + ak X k + · · · + an X n , où k > 0, ak 6= 0 et an 6= 0.
Prenons z ∈ C de la forme z = r|ak |−1/k ei(−θ+π)/k où ak = |ak |eiθ est la décompo-
sition polaire de ak et r est un nombre réel positif. On a
f (z) = |1 + ak z k + · · · + an z n |
≤ 1 + ak rk |ak |−1 ei(−θ+π) + rk+1 h(r) pour une certaine fonction poly h
k k+1
=1−r +r h(r) (calcul et formule de ak et z)
≤ 1 − rk + rk+1 |h(r)| (inégalité du triangle)
k
= 1 − r (1 − r|h(r)|)
<1 pour un r assez proche de 0 tel que r|h(r)| < 1
qui est une contradiction avec le fait que le minimum de f est 1.
Le démonstration du théorème est finie. 

Voici une petite application du théorème fondamental de l’algèbre :


Proposition 1.75. Soit P ∈ K[X] non nul. Alors P a une racine multiple si et
seulement si pgcd(P, P 0 ) 6= 1.

Démonstration. On note D := pgcd(P, P 0 ). Si α est une racine multiple de P alors


(X − α)2 | P d’où X − α | P 0 et donc X − α | D ce qui implique D 6= 1.
Réciproquement, si D =6 1, d’après le théorème fondamental de l’algèbre, il a une
racine complexe, disons α ∈ C. Alors X − α | D et comme D divise P et P 0 on
trouve X − α | P et X − α | P 0 . D’après Proposition 1.59 on a P (α) = P 0 (α) = 0 et
en appliquant Proposition 1.65 on déduit α racine multiple de P . 

1.10. Relations de Viète. Dans cette section on verra qu’il y a des relations
précises entre les racines d’un polynômes et ses coefficients.
Soit P = a0 +a1 X +· · ·+an X n un polynôme dans K[X]. Supposons qu’il a n-racines
(pas forcément distinctes) que l’on notera α1 , α2 , . . . , αn ∈ K.
On se demande quelle est la relation entre les coefficients de P et ses racines.
Par exemple : si P = a0 + a1 X, a1 6= 0, alors il a une unique racine α1 = − aa10 et
donc à partir des coefficients on retrouve la racine.
Voyons en degré deux : si P = a0 + a1 X + a2 X 2 , a2 6= 0, alors ses racines (en
supposant qu’elles appartiennent à K) sont
p p
−a1 − a22 − 4a0 a2 −a1 + a22 − 4a0 a2
α1 = α2 =
2a2 2a2
a1 a0
et un petit calcul montre α1 + α2 = − a2 et α1 α2 = a2 .
Si la formule générale n’est pas évidente allons faire un autre exemple.
Soit P = a0 + a1 X + a2 X 2 + a3 X 3 . En supposant qu’il a 3 racines dans K, notées
α1 , α2 , α3 , on écrit P comme suit P = λ(X − α1 )(X − α2 )(X − α3 ).
En développant ce produit et on identifiant les coefficients on trouve
a2
α1 + α2 + α3 =− ,
a3
a1
α1 α2 + α1 α3 + α2 α3 = ,
a3
a0
α1 α2 α3 =− .
a3

Plus généralement, on a le théorème de Viète qui nous dit


Théorème 1.76. (Théorème de Viète) Soit P = a0 + a1 X + · · · + an X n ∈ K[X]
un polynôme de degré n à coefficients dans K. Supposons qu’il a n racines(par
forcément distinctes) α1 , α2 , . . . , αn dans K. Alors on a
an−1
α1 + α2 + · · · + αn = −
an
X an−2
αi αj =
an
1≤i<j≤n
X an−3
αi αj αk = −
an
1≤i<j<k≤n
..
.
a0
α1 α2 . . . αn =(−1)n
an

Démonstration. Les racines d’un polynôme ne changent pas quand on multiplie le


polynôme par un scalaire non nul. D’où l’apparition des divisions par an dans toutes
les formules ci-dessus. On peut donc, sans restreindre la généralité, supposer que P
est unitaire, i.e. an = 1.
Soient α1 , α2 , . . . , αn les racines de P . D’après le Corollaire 1.69 on a
P = (X − α1 )(X − α2 ) . . . (X − αn )
où il n’y a pas de scalaire devant le produit car P est unitaire.
En développant le produit on trouve
n
!
X X
n r
(X − α1 )(X − α2 ) · · · · · (X − αn ) = X + (−1) αi1 αi2 . . . αir X n−r
r=1 i1 <i2 <···<ir
i
et en identifiant les coefficients des chaque X dans la somme on trouve exactement
les formules de l’énoncé. (Conseil : convainquez-vous que c’est vrai en écrivant ce
qui se passe pour n = 3 et n = 4 en grand détail.) 

En voici une application :


Exemple 1.77. Soit P = 1 + X P + X2 + X3 Q
+ X 4 . On note par α1 , αP
2 , α3 , α4 ∈ C
4 4
ses racines complexes. Calculer i=1 αi et i=1 αi . Après calculer i<j αi2 αj +
2
2
P
i<j αi αj .

Ceci est un polynôme pour lequel on connait une expression de ses racines. Il est
donc tentant de prendre ces racines et faire, brutalement, le calcul. Cependant ce
n’est pas nécessaire de le faire, i.e on n’a pas besoin de connaitre explicitement les
racines pour faire les calculs que l’on veut.
P P
On sait d’après le Théorème de Viète que i αi = −1 et i<j αi αj = 1. On a donc
!2
X
2
(−1 ) = αi
i
X X
= αi2 + 2 αi αj
i i<j
X
= αi2 + 2
i
2
P
D’où on tire i αi = −1.

Le Théorème de Viète nous donne toute de suite α1 α2 α3 α4 = 1.


Le dernier est en exercice.
Exemple 1.78. Soit P = 2 + 3X − 7X 2 + 13X 3 − X 4 + X 6 un polynôme dans
C[X]. On sait d’après le théorème fondamental de l’algèbre qu’il a précisément 6
racines complexes. Cependant on ne peut en calculer aucune ! Peut-on répondre aux
questions suivantes sans savoir explicitement les racines ?
(1) Toutes les racines de P sont de valeur absolue ≤ 1.
(2) Toutes les racines de P sont purement imaginaire.
(3) Toutes les racines de P ont la partie réelle positive.
(4) Pareil avec négatif.
Avant de lire les réponses de ces questions essayer d’y répondre vous même (pensez
à Viète).

(1) Non, car leur produit (d’après Viète) doit être égal, en valeur absolue, à 2
et si elles sont toutes inférieure à 1 c’est impossible.
(2) Non, car les racines d’un polynôme à coefficients réels viennent en paires
(conjuguée) et du coup leur produit serait négatif, impossible car d’après
Viète leur produit vaut 2.
(3) Non, car leur somme (d’après Viète) doit être égale à 0 et une somme de
nombre positifs (non tous nul d’après la question précédente) ne peut pas
être zéro.
(4) Pareil.

Plus généralement, dans Appendix A, vous trouverez les identités de Newton. Pour
un polynôme P à racines x1 , . . . , xn elles permettent de retrouver une somme de la
forme i xki en fonction des coefficients du polynôme P . (Ceci est hors programme.)
P

1.11. Facteurs irréductibles et décomposition. Dans cette section on parle de


la décomposition en facteurs irréductibles d’un polynôme. L’idée est de casser un
polynôme en morceaux plus petits ou plus simples qui sont plus faciles à étudier. Les
situations les plus importantes pour nous seront celles de polynômes à coefficients
dans R ou dans C.
Définition 1.79. Un polynôme P dans K[X] est dit irréductible si il n’est pas
constant et ses seuls diviseurs sont les polynômes constants et les multiples de lui
même.
Lemme 1.80. Un polynôme non-constant P dans K[X] est irréductible si et seule-
ment si il n’existe pas de polynômes non-constants A et B dans K[X] tels que
P = AB.

Démonstration. C’est une double implication. Supposons d’abord que P est irréduc-
tible. Par contradiction, supposons que de tels A et B dans K[X] tels que P = AB.
Donc A divise P et A n’est ni constant, ni un multiple de P (car B n’est pas
constant !), contradiction avec l’irréductibilité de P .
Réciproquement, supposons qu’il n’existe pas de tels A et B et montrons que P est
irréductible. Par contradiction à nouveau : supposons que P n’est pas irréductible.
Il existe alors A un polynôme dans K[X] tel que A divise P et A n’est ni constant
ni un multiple de P . Par la définition de la divisibilité il existe un polynôme B
dans K[X] tel que P = AB. Comme 0 < deg A < deg P on trouve que B n’est pas
constant, contradiction avec la supposition. 
Exemple 1.81.
(1) Tous les polynômes de degré 1 dans K[X] sont irréductible. En effet, ceci
est trivial d’après la définition car le degré d’un diviseur est contraint d’être
0 ou 1.
(2) Dans R[X] le polynôme X 2 +1 est irréductible. En effet, d’après le Lemme 1.80
il suffit de voir que P ne s’écrit pas comme un produit de deux polynômes
non-constants. Supposons le contraire, et soient A = aX + b et B = cX + d
dans R[X] tels que AB = X 2 + 1. En identifiant les coefficients on trouve
ac = 1 bd = 1 et ad + bc = 0. Comme a, b, c, d ∈ R on trouve que a et c
doivent être de même signe et non nuls. Également b et d doivent être de
même signe et non nuls. On trouve que ad et bc doivent être de même signe
et donc impossible que ad + bc = 0. Contradiction avec l’existence de A et
de B.
(3) Dans R[X] le polynôme X 3 + 1 n’est pas irréductible. En effet on a X 3 + 1 =
(X + 1)(X 2 − X + 1).
(4) Dans R[X] e polynôme X 2 + 2X + 2 est irréductible.
(5) Dans R[X] le polynôme X 4 +4 n’est pas irréductible. En effet, on a X 4 +4 =
(X 2 + 2X + 2)(X 2 − 2X + 2).

Attention

Ne confondez pas “irréductible dans K[X]” avec “pas de racine dans K”. Un
polynôme irréductible dans K[X] n’a pas de racines dans K mais la réciproque
est fausse : X 4 + 4 n’a pas de racine réelle et pourtant il n’est pas irréductible.

On rappelle que pour les nombres entier on a le Lemme de Gauss qui dit : si p | ab
et p est premier alors p | a ou p | b (ou bien les deux !). L’analogue reste vrai pour
les polynômes
Lemme 1.82. (de Gauss) Soient P, A, B ∈ K[X] des polynômes telles que P soit
irreductible et P divise AB. Alors on a P | A ou P | B.

Démonstration. Posons D := pgcd(P, A). Comme D | P et P est irreductible on


doit avoir soit D = P , soit D = 1 (voir la définition d’irréductible).
1er cas : si D = P on a donc P | A et on a fini.
2ème cas : si D = 1 alors par le théorème de Bézout (voir Théorème 1.39) il existe
U, V ∈ K[X] tels que P U + AV = 1. En multipliant par B on trouve
P U B + ABV = B.
Puisque P divise ABV et aussi P U B il doit diviser leur somme, soit P divise B et
on a fini. 

On pourrait s’attendre, en analogie avec les nombres entiers, à ce que tout polynôme
s’écrit de façon unique comme un produit de polynômes irréductibles. Ceci est bien
le cas et on le démontre dans le théorème suivant
Théorème 1.83. (factorization unique des polynômes)
Pour tout polynôme non-constant A ∈ K[X] il existe des polynômes irréductibles
dans K[X], disons P1 , . . . , Pr , tels que A = P1 P2 . . . Pr . De plus, ces polynômes sont
uniques a numérotation près et à multiplication par une constante près.

Pour voir le besoin de "à multiplication par une constante près", regarder
Exemple 1.84. (1) X 2 = (λX) · (λ−1 X) quelque soit λ ∈ K∗
(2) 9X 2 = 3X · 3X = X · 9X = ( 21 X)(18X)
(3) 3X 2 − 3 = (3X − 3) · (X + 1) = (X − 1)(3X + 3)
(4) 4X 2 − 1 = (4X − 2) · (X + 12 ) = (X − 21 )(4X + 2)).

Démonstration. L’existence est très simple et se démontre par récurrence sur le


degré de A.
En effet, si A est irréductible on a fini. Sinon, A s’écrit comme A = BQ pour
des polynômes non-constants B et Q. On a deg(B), deg(Q) < deg(A) et donc par
l’hypothèse de récurrence ils s’écrivent comme produit d’irréductibles. Donc A s’écrit
lui même comme un produit d’irréductibles et l’existence est démontrée.
L’unicité est un peu plus subtile et l’ingrédient principal (et crucial !) est le lemme
de Gauss (Lemme 1.82).
Supposons A = P1 P2 . . . Pr = Q1 Q2 . . . Qs avec les Pi et Qj dans K[X] des poly-
nômes irréductibles dans K[X]. Notre but est de démontrer que r = s et que chaque
Pi est égal à un Qσ(i) à un scalaire près, pour un certain indice σ(i). On le fera par
récurrence sur r + s.
Initialisation : r + s = 2. Ceci signifie A = P1 = Q1 et tout est évident.
Hérédité. D’après Pr | Q1 Q2 . . . Qs et le Lemme de Gauss (Lemme 1.82) il existe un
indice j tel que Pr | Qj . Quitte à re-numéroter on peut supposer j = s. Comme Pr
et Qs sont irréductibles, on doit avoir Pr = λQs pour une certaine constante λ ∈ K.
En divisant les deux expressions de A par Pr on trouve
P1 P2 . . . Pr−1 = λ−1 Q1 Q2 . . . Qs−1
et comme r − 1 + s − 1 < r + s l’hypothèse de récurrence nous dit que r − 1 = s − 1
et les facteurs Pi sont, a re-numérotation près et à multiplication par scalaire près,
les mêmes que les Qi . L’unicité est donc démontrée. 

Il est utile de savoir qui sont les polynômes irréductibles. Vous vous rappelez
que le problème analogue pour les nombres entiers, à savoir connaitre tout les
nombres premiers, est très très compliqué et n’a pas encore de solution satisfaisante.
La situation est bien plus compliquée pour K[X] pour un corps K quelconque.
Cependant, pour K = C ou K = R c’est aussi simple que possible et on va donner
la classification des polynômes irréductibles :
Proposition 1.85. (Irréductibles dans C[X]) Un polynôme à coefficients complexes
est irréductible si et seulement si il est de degré 1.

Démonstration. En effet, c’est une conséquence immédiate du Théorème fondamen-


tal de l’algèbre qui atteste que tout polynôme non constant admet au moins une
racine (voir Théorème 1.68). 

La situation sur R est une conséquence assez immédiate du cas des nombres com-
plexes :
Proposition 1.86. (Irréductibles dans R[X].) Un polynôme à coefficients réels est
irréductibles si et seulement si il est de degré 1 ou bien s’il est de degré 2 et son
discriminant est strictement négatif.

Démonstration. Tous les polynômes de degré 1 sont irréductibles.


Montrons qu’un polynôme irréductible dans R[X] doit être de degré au plus 2. Soit
donc P ∈ R[X] un polynôme irréductible de degré supérieur à 1. D’après le théorème
fondamental de l’algèbre il a une racine complexe, soit α ∈ C.
Si α ∈ R on a que X − α divise P et donc P étant de degré au moins 2 il n’est pas
irréductible, contradiction.
Si α ∈ C \ R alors α =
6 α et comme P est à coefficients réels on a P (α) = P (α) = 0
d’òu α est racine de P .
On en déduit que (X −α)(X −α) divise P , ou en faisant le calcul, X 2 −2<(α)X +|α|2
(qui est un polynôme réel) divise P . Comme P est irréductible, il doit en être un
multiple scalaire, donc il est de degré 2.
De plus, la démonstration montre que les seuls polynômes de degré 2 qui sont
irréductibles sont ceux qui n’ont pas de racines réelles, ou dit autrement, ceux dont
le discriminant est négatif. 

Irréductibles de R[X]
On peut dresser la liste des polynômes irréductibles dans R[X] :
{aX + b | a, b ∈ R, a 6= 0} ∪ aX 2 + bX + c | a, b, c ∈ R, a 6= 0, b2 − ac < 0 .


Exemple 1.87. Pour voir que la situation dans Q[X] est nettement plus compliquée,
tenter de montrer que les polynômes
X p−1 + X p−2 + . . . X + 1
pour p nombre premier, sont irréductibles dans Q[X].
Pour p = 3, 5, 7 vous arriverez à le faire à la main. Ensuite ca devient infaisable
à la main et il faut introduire d’autres techniques qui sont hors de l’objectif de
notre cours (que vous verrez probablement en L3 ou M1 dans un cours plus avancé
d’arithmétique).

1.12. Fractions rationnelles et décomposition. Les fractions rationnelles sont


des fractions de polynômes comme les nombres rationnels sont des fractions d’entiers.
Tout nombre rationnel s’écrit comme une fraction d’entiers ab avec b > 0 et a, b
premiers entre eux. Ceci sera aussi le cas pour les fractions rationnelles.
La situation pour les rationnels est encore plus favorable car il se trouve que l’on
peut écrire tout nombre rationnel comme une combinaison linéaire de p1i où les p
sont des nombres entiers et i des nombres naturels et où le coefficient de p1i est un
entier en valeur absolue plus petit que p. Donnons en quelques exemples
1 1 1 5 1 1
= − = −2
6 2 3 18 2 9
13 1 1 1 19 1 1
= + −2 = +2
30 2 3 5 24 8 3

Dans cette section on verra que toute fraction rationnelles (i.e. de polynômes)
peut aussi s’écrire sous cette forme. On se contentera de regarder les coefficients
complexes et ensuite les coefficients réels. Cette décomposition peut servir au calcul
des primitives, voir la fin de la section où quelques exemples sont esquissés.
Définition 1.88.
Exemple 1.89.
Définition 1.90.
Exemple 1.91.

Avant d’énoncer le théorème principal sur la décomposition des fractions rationnelles,


en voici quelques exemples
 
X 1 1 1
= +
X2 − 1 2 X −1 X +1
 
X 1 1 X −1
= −
X3 − 1 3 X − 1 X2 + X + 1

[TO BE CONTINUED]
2. Le groupe symétrique et le déterminant

Dans cette section on va introduire le déterminant d’une matrice ou d’un endo-


morphisme linéaire. Pour faire cela proprement on a besoin de parler d’abord du
groupe symétrique qui nous servira d’outil pour la définition. Ensuite on montrera
l’existence et l’unicité du déterminant et toutes les propriétés que l’on connait.

2.1. Permutations et le groupe symétrique.


Définition 2.1. Soit X un ensemble. Une permutation sur X est simplement une
fonction bijective σ : X → X. L’ensemble de permutation de X est noté Aut(X) ou
bien Perm(X). La composition de fonctions muni Aut(X) d’une loi qui rend Aut(X)
un groupe (associativité, élément neutre, inverse).
Pour X = {1, 2, . . . , n} on note Sn ou bien Σn ou encore Sn le groupe de permuta-
tions de X. On l’appelle le n-ième groupe symétrique.

Une permutation σ ∈ Sn , sera en général, écrite comme suit


 
1 2 3 ... n
.
σ(1) σ(2) σ(3) . . . σ(n)
Exemple 2.2. Prenons n = 3. Alors σ : {1, 2, 3} → {1, 2, 3} donnée par
 
1 2 3
2 3 1
est une permutation. En effet, son inverse (réciproque) est (vérifier !)
 
1 2 3
.
3 1 2

La fonction σ : {1, 2, 3} → {1, 2, 3} donnée par


 
1 2 3
3 1 2
est une permutation. En effet, son inverse est (vérifier !)
 
1 2 3
.
2 3 1
Exemple 2.3. Soit σ : {1, 2, 3, 4, 5} → {1, 2, 3, 4, 5} définie par σ(i) = 6 − i pour
i = 1, . . . , 5. Ceci est une permutation (vérifier en écrivant son inverse) et on l’écrit
 
1 2 3 4 5
.
5 4 3 2 1
Exemple 2.4. Soient i et j des entiers tels que 1 ≤ i < j ≤ n. La permuta-
tion qui échange i et j et fixe les autres points est appelée la transposition (i j).
Concrètement elle satisfait 
j k = i

k 7→ i k = j .

k k 6= i, j

Vérifier que (i j)(i j) = id, donc (i j)−1 = (i j).


Pour n = 6 et i = 2, j = 5 on a
 
1 2 3 4 5 6
(2 5) =
1 5 3 4 2 6
Définition 2.5. Soient 1 ≤ a1 < a2 < · · · < ak ≤ n des entier. On définit
(
al+1 i = al
σ(i) =
i sinon
où on a posé ak+1 := a1 , et on l’appelle un cycle de longueur k.
C’est la permutation qui envoie ai en ai+1 et laisse stables tous les autres et on la
note
(a1 a2 . . . ak ).
Exemple 2.6. La permutation (2 5 3 1) ∈ S6 n’est autre que
 
1 2 3 4 5 6
2 5 1 4 3 6
Exercice 2.7. Montrer que
(1) (1 2 3) = (1 2)(2 3),
(2) (2 1 3) = (1 2)(1 3),
(3) (1 2 3 4) = (1 2)(2 3)(3 4),
(4) (1 2 3 4 5) = (1 2 3 4)(4 5) = (1 2)(2 3)(3 4) = (5 6),
(5) (a1 a2 . . . ak ) = (a1 a2 )(a2 a3 ) . . . (an−1 an ).

Comme on l’a dit plus haut, le groupe symétrique Sn est un groupe, i.e. il est muni
d’une loi de multiplication qui n’est autre que la composition des fonctions. Voyons
quelques exemples :
Exemple 2.8.
    
1 2 3 1 2 3 1 2 3
(1) = .
3 1 2 1 3 2 3 2 1
En utilisant la notation pour les cycles, on aurait pu écrire
(1 3 2)(2 3) = (1 3).
(2) (1 2 3 4 5)(1 2) = (1 3 4 5),
 
1 2 3 4 5
(3) (1 3 2)(4 5) = est une permutation qui n’est pas un cycle !
3 1 2 5 4
Exemple 2.9. Soit σ ∈ S6 la permutation suivante
 
1 2 3 4 5 6
1 6 5 3 4 2.
On remarque qu’il y a deux cycles dans cette permutation : (2 6) et (3 5 4) et de
plus σ est égal à leur produit (dans n’importe quel ordre ! vérifiez !). On a trouvé la
décomposition en cycles disjoints de la permutation σ.
Exercice 2.10. Écrivez les permutations suivantes comme un produit de cycles
disjoints.
(1) ( 12 21 35 43 54 )
(2) ( 12 26 35 43 54 61 )
(3) ( 12 23 34 41 56 65 )
Exercice 2.11. Démontrer que toute permutation σ ∈ Sn s’écrit comme un produit
de cycles disjoints. De plus ces cycles sont uniques à permutation près.
Définition 2.12. Pour une permutation σ ∈ Sn on définit la signature par
Y σ(i) − σ(j)
ε(σ) := .
i−j
1≤i<j≤n

Exemple 2.13.
 
1 2 3 2−3 2−1 3−1 1 2
(1) La signature de est 1−2 · 1−3 · 2−3 =1· −2 · −1 = 1.
2 3 1
 
1 2 3 4
(2) La signature de est
2 1 4 3
2−1 2−4 2−3 1−4 1−3 4−3 1
· · · · · = (−1) · 1 · · 3 · 1 · (−1) = 1.
1−2 1−3 1−4 2−3 2−4 3−4 3
(3) La signature de (2 3 4) est 1. (Exercice !)
(4) La signature de (1 3 5 2) est −1. (Exercice !)
(5) la signature de (2 1 3)(4 5) est −1. (Exercice !)
Lemme 2.14. Pour toute permutation σ ∈ Sn on a ε(σ) = ±1.

Démonstration. Il suffit de montrer que |ε(σ)| = 1. Remarquons d’abord l’égalité


d’ensembles
{(i, j) | i, j = 1, . . . , n et i 6= j} = {(σ(i), σ(j)) | i, j = 1, . . . , n et i 6= j}.
Ceci peut se voir, par exemple, en remarquant que pour tous i, j dans {1, 2, . . . , n}
on a
(i, j) = (σ(i0 ), σ(j 0 )) où i0 = σ −1 (i) et j 0 = σ −1 (j).

On en déduit Y Y
|i − j| = |σ(i) − σ(j)|
1≤i<j≤n 1≤i<j≤n
ou autrement dit |ε(σ)| = 1. 
Définition 2.15. Soit σ ∈ Sn une permutation. Une inversion de σ est une paire
d’entiers (i, j) avec 1 ≤ i < j ≤ n telle que σ(i) > σ(j).
Corollaire 2.16. Soit σ ∈ Sn . Alors ε(σ) = (−1)#{inversions de σ} .

Démonstration. D’après le Lemme 2.14 il suffit de trouver le signe de ε(σ). Ce


signe est donné par le produit des signes de σ(i)−σ(j)
i−j et celui-ci est négatif précisé-
ment quand (i, j) est une inversion de σ. Donc on a autant de signes négatifs que
d’inversions de σ. En d’autres mots ε(σ) = (−1)#{inversions de σ} . 
Lemme 2.17. Quels que soient σ, τ ∈ Sn on a
ε(στ ) = ε(σ)ε(τ ).
Démonstration.
Y σ(τ (i)) − σ(τ (j))
ε(στ ) =
i<j
i−j
Y σ(τ (i)) − σ(τ (j)) τ (i) − τ (j)
=
i<j
τ (i) − τ (j) i−j
Y σ(τ (i)) − σ(τ (j)) Y τ (i) − τ (j)
=
i<j
τ (i) − τ (j) i<j
i−j
Y σ(τ (i)) − σ(τ (j))
= ε(τ )
i<j
τ (i) − τ (j)

Il nous reste donc a démontrer que


Y σ(τ (i)) − σ(τ (j)) Y σ(i) − σ(j)
= .
i<j
τ (i) − τ (j) i<j
i−j

Il suffit de remarquer que chaque facteur à droite se retrouve une et une seule
fois dans le produit à gauche (et inversement aussi). Ceci découle du fait que
(i, j) = (τ (i0 ), τ (j 0 )) où i0 = τ −1 (i) et j 0 = τ −1 (j 0 ) et de plus (i0 , j 0 ) sont uniques
avec cette propriété. 
Exemple 2.18. ε((1 2 3 4)(3 5 2)) = (−1) · 1 = −1.
Exercice 2.19. Montrer que ε(id) = 1 et ensuite ε(σ −1 ) = ε(σ).
Exercice 2.20. Montrer que si f : Sn → {±1} est un morphisme de groupes, i.e
f (στ ) = f (σ)f (τ ) pour tout σ, τ ∈ Sn , alors soit f est constant égal à 1 soit f = ε.

2.2. Le déterminant. Nous sommes prêts à définir le déterminant d’une matrice :


Définition 2.21. (déterminant) Soit A = (aij ) ∈ Mn (K) une matrice carrée de
taille n. On définit
X Yn
det(A) := ε(σ) aiσ(i) .
σ∈Sn i=1

La suite de cette section est dédiée à l’exploration des propriétés de det. On


démontrera toutes les propriétés que vous avez déjà vu seulement en utilisant la
définition précédente et ce que l’on a fait sur les permutations.
Lemme 2.22. Soit In ∈ Mn (K) la matrice identité. Alors det(In ) = 1. déterminant de l’identité

Démonstration. Les coefficients de la matrice In = (aij ) satisfont


(
1, i = j
aij =
0, i 6= j.
et du coup pour une permutation σ ∈ Sn on a
n
(
Y 1, σ(i) = i pour tout i = 1, . . . , n
aiσ(i) =
i=1
0, sinon
en d’autres mot, le produit précédent est non nul que si σ = id dans quel cas il est
égal à 1.
On a donc det(In ) = ε(id) · 1 = 1. 

Voici un exemple important de calcul de déterminant


déterminant d’une matrice Proposition 2.23. Le déterminant d’une matrice triangulaire est égal au produit
triangulaire des coefficients diagonaux.

Démonstration. Soit A = (aij )ij ∈ Mn (K) une matrice triangulaire, disons supé-
rieure. Cela signifie aij = 0 si i > j. Si σ ∈ Sn est une permutation différente de
l’identité alors il existe un i ∈ [[1, n]] tel que σ(i) < i. Pour une telle permutation
on a donc aiσ(i) = 0 pour au moins un i et du coup
n
Y
ai,σ(i) = 0.
i=1

Ceci démontre que dans la formule du déterminant il ne reste qu’un seul terme :
celui correspondant a σ = id et il est égal à a11 a22 · · · ann . 

déterminant de la transposée Lemme 2.24. Soit A ∈ Mn (K). On a l’égalité suivante


det(A) = det(At ).

Démonstration. On rappelle que At = (a0ij ) signifie la transposée de A. Écrivons la


formule du det(At ) pour le confort du lecteur :
X n
Y
det(At ) = ε(τ ) a0iτ (i)
τ ∈Sn i=1

où, par la définition de la transposée, a0ij = aji .


Remarquons d’abord la chose suivante : pour tout σ ∈ Sn on a
n
Y n
Y
aiσ(i) = aσ−1 (i)i
i=1 i=1

et ceci est parce-que l’ensemble des couples (i, σ(i)) est le même que l’ensemble des
couples (σ −1 (i), i). On peut donc réécrire det(A) comme suit
X n
Y
det(A) = ε(σ) aσ−1 (i)i
σ∈Sn i=1
X n
Y
= ε(σ −1 ) a0iσ−1 (i)
σ∈Sn i=1
X n
Y
= ε(τ ) a0iτ (i)
τ ∈Sn i=1

= det(At ).
On a utilisé l’égalité ε(σ) = ε(σ −1 ) (voir l’Exercice 2.19). 
Lemme 2.25. Soient A ∈ Mn (K) une matrice carrée de taille n et r un entier déterminant sort les

compris entre 1 et n. Soit λ ∈ K un scalaire et considérons la matrice A0 obtenue scalaires

de A en multipliant la ligne r par λ. Alors on a det(A0 ) = λ det(A). Pareil si on


remplace ligne par colonne.

Démonstration. Si on écrit A0 = (a0ij ) alors par la définition de A0 on a a0ij =


(
aij i 6= r
. Du coup en écrivant la formule du déterminant pour A0 on trouve
λarj i = r
X n
Y
det(A0 ) = ε(σ) a0iσ(i)
σ∈Sn i=1
X n
Y
= ε(σ)λ aiσ(i)
σ∈Sn i=1
= λ det(A).

Dans le cas où on multiplie les colonnes on peut faire la même preuve. Autrement,
on peut utiliser le cas précédent appliqué à la transposée de A et conclure d’après
det(A) = det(At ) (voir Lemme 2.24). 

Lemme 2.26. Soient A ∈ Mn (K) et A0 obtenue de A en échangeant deux lignes. le déterminant est alterné

Alors det(A0 ) = − det(A). Pareil pour les colonnes.

Démonstration. Soient r et s les deux lignes qui sont permutées. On note τ := (r s)


la transposition qui échange r et s et fixe les autres nombres.
On pose A0 = (a0ij ) et d’après la définition de A0 on a

aij i 6= r, s

a0ij = aτ (i)j = arj i = s .

asj i = r

On écrit la formule du déterminant pour A0 et on trouve


X n
Y
det(A0 ) = ε(σ) a0iσ(i)
σ∈Sn i=1
X Yn
= ε(σ) aτ (i)σ(i)
σ∈Sn i=1
X n
Y
= ε(τ ) ε(τ σ) aiτ (σ(i))
σ∈Sn i=1
= ε(τ ) det(A)
= − det(A)
2
On a utilisé τ = id, ε(τ ) = −1 et ε(τ σ) = ε(τ )ε(σ) (voir Lemme 2.17).
Dans le cas des colonnes on utilise le cas précédent pour la transposée et ensuite le
Lemme 2.24. Autrement, la même preuve que ci-dessus s’adapte sans difficulté. 
déterminant nul si deux Corollaire 2.27. Soit A ∈ Mn (K) une matrice carrée telle que deux lignes (ou
égales
deux colonnes) soient égales. Alors det(A) = 0.

Démonstration. Disons que les lignes égales sont la i-ième et la j-ième. Si on


les permute, on ne change pas la matrice ! Mais le déterminant change de signe,
Lemme 2.26, c’est à dire det(A) = − det(A) d’où det(A) = 0.
Pour les colonnes c’est la même preuve et elle est laissée en exercice plus bas. 

Exercice 2.28. Écrire les détails de la preuve du Corollaire 2.27 pour les colonnes.
le déterminant est linéaire Lemme 2.29. Soit A = (aij ) ∈ Mn (K) une matrice de taille n. Supposons que la
ligne r de A soit de la forme Lr = L0 + L00 . On définit A0 = (a0ij ) (resp. A00 = (a00ij ))
comme la matrice obtenue de A en remplaçant la ligne Lr par L0 (resp. L00 ). Alors
on a
det(A) = det(A0 ) + det(A00 ).

Démonstration. On écrit L0 = (li0 )ni=1 et L00 = (li00 )ni=1 . L’hypothèse s’écrit


arj = lj0 + lj00 , j = 1, . . . , n.
La formule du déterminant pour A est
X n
Y
det(A) = ε(σ) aiσ(i)
σ∈Sn i=1
X n
Y
0 00
= ε(σ)(lσ(r) + lσ(r) ) aiσ(i)
σ∈Sn i=1,i6=r
X n
Y X n
Y
0 00
= ε(σ)lσ(r) aiσ(i) + ε(σ)lσ(r) aiσ(i)
σ∈Sn i=1,i6=r σ∈Sn i=1,i6=r
X n
Y X Yn
= ε(σ) a0iσ(i) + ε(σ) a00iσ(i)
σ∈Sn i=1 σ∈Sn i=1
0 00
= det(A ) + det(A ).
Pour le confort du lecteur, on remarque que les dernière égalités suivent des définitions
de A0 (resp. A00 ) :
( (
a ij , i 6
= r aij , i 6= r
a0ij = 0 a00ij = 00 .
lj , i=r lj , i = r


Corollaire 2.30. Soit A ∈ Mn (K) une matrice carrée de taille n. Soit A0 la


matrice obtenue de A en rajoutant un multiple d’une ligne à une autre ligne. Alors
det(A) = det(A0 ). Pareil pour les colonnes.

Démonstration. On note A = (ars ) et A0 = (a0rs ) pour les coefficients des deux


matrices.
Par hypothèse on a qu’il existe i, j des entiers distincts compris entre 1 et n et un
scalaire λ ∈ K tels que
(
ars , r 6= i
a0rs = .
ais + λajs , r = i.
Notons B la matrice obtenue de A en remplaçant la ligne i par la ligne j. D’après
le Lemme 2.29 et le Lemme 2.25 on trouve
det(A0 ) = det(A) + λ det(B) = det(A) + λ · 0
car B a deux lignes égales et donc son déterminant est nul (Corollaire 2.27).
Pour les colonnes le même argument s’applique ou sinon on utilise la transposée et
le Lemme 2.24. 

Le théorème suivant est l’aboutissement de notre effort dans cette section et est le
résultat clef sur le déterminant :
Théorème 2.31. Il existe une unique application det : Mn (K) → K qui satisfait
les conditions suivantes
(1) det(In ) = 1,
(2) si B est obtenue à partir de A en échangeant deux lignes alors det(B) =
− det(A),
(3) si C est obtenue à partir de A en rajoutant un multiple d’une ligne à une
autre ligne alors det(C) = det(A)
(4) si D est obtenue à partir de A en multipliant une ligne par un scalaire λ ∈ K
alors det(D) = λ det(A).
De plus on a det(At ) = det(A) et les propriétés (2), (3), (4) valent aussi pour les
colonnes.

Démonstration. On a démontré qu’une telle fonction existe et elle satisfait les


propriétés (1)-(4), voir Definition 2.21, Lemme 2.22, Lemme 2.26, Corollaire 2.30,
Lemme 2.25, Lemme 2.24.
Il nous reste à voir l’unicité, qui est nettement plus simple que l’existence. Soit
ψ : Mn (K) → K satisfaisant aux (1)-(4).
Soit A ∈ Mn (K) arbitraire. En faisant des opérations élémentaires sur les lignes de
la matrice A on peut la ramener à une matrice échelonnée E. On a ψ(E) = ±ψ(A)
ou le signe dépend du nombre de fois que l’on a du permuter deux lignes quand on
a échelonné A. Mais E est une matrice diagonale, disons diag(ei | i = 1, . . . , n), et
d’après les propriétés (3) et ensuite (1), on trouve que ψ(E) est égal à e1 · e2 · · · · en .
De la même façon on trouve det(A) = ±e1 · e2 · · · · en avec le même signe que pour
ψ(A). Donc ψ(A) = det(A) et l’unicité est démontrée. 

Corollaire 2.32. Soit ψ : Mn (K) → K est une autre application qui satisfait aux
conditions (2), (3), (4) du Théorème 2.31. Alors il existe un unique α ∈ K tel que
ψ(A) = α det(A) pour tout A ∈ Mn (K).
6 0 alors en appliquant l’unicité à α−1 ψ(·)
Démonstration. On pose α := ψ(In ). Si α =
−1
on trouve α ψ = det, ou en d’autres mots, ψ(A) = α det(A) pour tout A ∈ Mn (K).
Si α = 0 alors pour tout A ∈ Mn (K), en l’échelonnant et en utilisant les propriétés
(2), (3), (4) on trouve
ψ(A) = ±ψ(E) = ±e1 · e2 . . . en ψ(In ) = 0 = α · det(A)
où E = diag(e1 , . . . , en ) est la matrice échelonnée obtenue à partir de A. 
le déterminant est Théorème 2.33. Soient A, B ∈ Mn (K) deux matrices carrées de taille n. Alors
multiplicatif
det(BA) = det(B) det(A).

Démonstration. Soit ψ : Mn (K) → K la fonction définie par X 7→ det(XA). Clai-


rement ψ vérifie les propriétés (2)-(4) du Théorème 2.31 et donc d’après le Co-
rollaire 2.30 on trouve qu’il existe un α ∈ K tel que det(XA) = α det(X) pour
tout X ∈ Mn (K). En posant X = In on trouve α = det(A) et pour X = B on a
det(BA) = det(B) det(A). 

Attention

Le déterminant n’est pas additif, sauf si les matrices sont de tailles 1 × 1. Par
exemple,
       
1 0 0 0 1 0 0 0
1 = det + 6= det + det = 0+0 = 0
0 0 0 1 0 0 0 1
3. Le polynôme caractéristique et le théorème de Cayley-Hamilton

Le polynôme caractéristique d’un endomorphisme est un outil très important pour


comprendre les endomorphismes et les matrices. C’est un polynôme qui nous dira
plein de choses sur l’endomorphisme et il est a la base des beaucoup d’applications.
Le théorème principal sera le Théorème 3.6 de Cayley–Hamilton.
Définition 3.1. Soit A une matrice dans Mn (K). Son polynôme caractéristique est
définie par
pA (X) := det(XIn − A) ∈ K[X].

Attention

Ici X n’est pas un vecteur ou une matrice mais une variable formelle pour
définir un polynôme. On pourrait mettre t ou T ou s, etc. selon ce qui nous
arrange.

Exemple 3.2. Soit A = In . Alors det(tIn −In ) = det((t−1)In ) = (t−1)n det(In ) =


(t − 1)n .
Exemple 3.3. Soit A la matrice ( 00 10 ). Son polynôme caractéristique est
pA = det(tI2 − A) = t −1 = t2 .

0 t

Exemple 3.4. Soit A la matrice ( 10 23 ).


Son polynôme caractéristique est
X−1 −2
pA = det(XI2 − A) = 0 X−3 = (X − 1)(X − 3)
Corollaire 3.5. (du Théorème 2.33) Deux matrices conjuguées ont le même poly-
nôme caractéristique.

Démonstration. Soient A, B ∈ Mn (K) deux matrices conjuguées. Cela signifie qu’il


existe P ∈ Mn (K) inversible telle que B = P AP −1 .
On a les égalités
pB = det(tIn − B)
= det(tIn − P AP −1 )
= det(P (tIn − A)P −1 )
= det((tIn − A)P −1 P ) (T héorème 2.33)
= det(tIn − A)
= pA . 

Le théorème principal de ce chapitre est


Théorème 3.6. [Cayley-Hamilton] Soit A ∈ Mn (K). Posons pA (t) := det(tIn − A)
le polynôme caractéristique de A. Alors on a pA (A) = On .
Remarque 3.7. Il est tentant d’évaluer l’expressions det(tIn − A) en prenant pour t
une matrice, par exemple A. Mais on n’a pas le droit de le faire. En effet, il faut
penser à tIn comme une matrice diagonale avec que des t sur la diagonale. Il n’est
donc pas possible de remplacer ces t par autre chose que des nombres ou d’autres
variables formelles.
Cependant, une fois développé, le déterminant det(tIn − A) est bien un polynôme
dans K[t] de degré n que l’on peut évaluer en une matrice carrée.
Exemple 3.8. Soit A ∈ M2 (K). Alors pA (t) = t2 − tr(A)t + det(A)I2 (vérifier !)
et le théorème de Cayley-Hamilton nous dit qu’on a l’égalité
A2 − tr(A)A + det(A)I2 = O2 .

Pour la matrice A = 32 −1

1 on a donc A2 − 4A + 5I2 = O2 . (Vérifier à la main !)

Voici un exemple fondamental


Exemple 3.9. Soit A ∈ Mn (K) une matrice triangulaire (supérieure ou inférieure).
Son polynôme caractéristique est
n
Y
pA (t) = det(tIn − A) = (t − aii ).
i=1
En effet, la matrice tIn − A est triangulaire et ses coefficients diagonaux sont
t − aii , i = 1, . . . , n. Il ne reste qu’a utiliser Proposition 2.23 pour conclure.

Pour démontrer le théorème de Cayley-Hamilton, (voir Section 3.2) on a besoin


d’introduire la comatrice et l’identité de Laplace, aussi appelée “développement sur
une ligne/colonne du déterminant”.
Ces résultats préliminaires sont importants et intéressants indépendamment du fait
qu’ils sont nécessaires pour démontrer le théorème de Cayley-Hamilton.

3.1. La comatrice et la formule de Laplace.


Définition 3.10. Soit A = (aij )ij ∈ Mn (K) une matrice. On appelle le mineur 5
(i, j) de la matrice A le déterminant de la matrice obtenue de A en supprimant la
ligne i et la colonne j. On le note ∆ij (A) ou simplement ∆ij s’il n’y a pas danger
de confusion/ambiguïté.
 
1 2 −1
1 −2

= 2, ∆12 = 0 −2 = 6.

Exemple 3.11. A = 0 1 −2, ∆11 =
1 0 3 0
3 1 0
Théorème 3.12. (formule de Laplace) Soit A ∈ Mn (K) une matrice carrée. Alors
pour tout k = 1, . . . , n on a
Xn n
X
det(A) = (−1)k+j akj ∆kj = (−1)i+k aik ∆ik .
j=1 i=1

Démonstration. En utilisant la transposée (Lemme 2.24), il suffit de démontrer la


première égalité.
La preuve peut se faire en utilisant seulement la définition du déterminant (Defini-
tion 2.21) et en faisant du yoga sur les permutations. Nous choisissons de donner

5. aussi cofacteur
une preuve qui repose sur les résultats démontrés précédemment, notamment on
veux exploiter : la linéarité du det (Lemme 2.29).
Soient k ∈ [[1, n]] et A ∈ Mn (K) fixés.
On considère la fonction φ : Kn → K qui envoie (x1 , . . . , xn ) en le déterminant de
la matrice obtenue de A en remplaçant la ligne k avec (x1 , . . . , xn ). Par exemple, si
A = (aij ) est de taille 3 et k = 2 on a

a11 a12 a13

φ(x1 , x2 , x3 ) = x1 x2 x3 .
a31 a32 a33

D’après la linéarité du déterminant, Lemme 2.29, on a


φ(x1 + y1 , x2 + y2 , . . . , xn + yn ) = φ(x1 , x2 , . . . , xn ) + φ(y1 , y2 , . . . , yn )
ainsi que (voir Lemme 2.25)
φ(λx1 , λx2 , . . . , λxn ) = λφ(x1 , x2 , . . . , xn ).

D’après les deux propriétés que l’on vient de mentionner on a


φ(x1 , x2 , . . . , xn ) = λ1 x1 + λ2 x2 + . . . λn xn
avec λi = φ(0, 0, . . . , 1, . . . , 0) avec le 1 sur la i-ième position.
Pn
Il est clair que det(A) = φ(ak1 , ak2 , . . . , akn ) = i=1 λi aki donc pour conclure il
faut démontrer que pour tout i ∈ [[1, n]] on a λi = (−1)i+k ∆ki .
Soit i ∈ [[1, n]] fixé et cherchons à calculer φ(0, . . . , 1, . . . , 0) où 1 est sur la i-ième
position. On permute les lignes et les colonnes de A pour amener le 1 en position
(n, n). D’abord on descend la k-ième ligne jusqu’en bas, donc on fait (n − k)-
permutations d’où un signe (−1)n−k et ensuite on ramène la i-ième colonne tout à
droite, d’où encore un signe (−1)n−i . En formules on a :


a11 a12 ... a1n a11 a12 ... a1n

.. ..
. .

ak−1,1 ak−1,2 ... ak−1,n a ak−1,2 ... ak−1,n
n−k k−1,1

λi = 0 = (−1)

0 ...1... 0 ak+1,1
ak+12 ... ak+1,n
ak+1,1 ak+12 ... ak+1,n
...

... an1 an2 ... ann

an1 an2 ... ann 0 0 ...1... 0

a11 a12 ... a1,i−1 a1,i+1 ... a1n a1i

..
.

a ak−1,2 ... ak−1,i−1 ak−1,i+1 ... ak−1,n ak−1,i
n−k n−i k−1,1
= (−1) (−1) ak+1,1 ak+12 ... ak+1,i−1 ak+1,i+1 ... ak+1,n ak+1,i

...

an1 an2 ... an,i−1 an,i+1 ... ann an,i

0 0 ... 0 0 ... 0 1
Pour simplifier, notons D := (drs )rs la dernière matrice ci-dessus. Il suffit donc de
démontrer det(D) = ∆ki car le signe vaut bien (−1)2n−i−j = (−1)i+j . On a
X n
Y
(1) det(D) = ε(σ) drσ(r) .
σ∈Sn r=1
(
0, σ(n) 6= n
Remarquons que dnσ(n) = .
1, σ(n) = n
Qn
On a donc r=1 drσ(r) = 0 si σ(n) 6= n. Ceci nous permet de simplifier la formule
Eq. (1) en
X n
Y
det(D) = ε(σ) drσ(r)
σ∈Sn r=1
σ(n)=n

X n−1
Y
(2) = ε(σ) drσ(r)
σ∈Sn r=1
σ(n)=n

Faisons l’observation suivante : si on a une permutation σ ∈ Sn telle que σ(n) = n


alors sa restriction à {1, 2, . . . , n − 1} est encore une permutation ! Réciproque-
ment, étant donnée une permutation dans Sn−1 on l’étend en une permutation de
{1, 2, . . . , n} en décrétant que n 7→ n. Il y a donc une correspondance bijective entre
les permutations dans Sn−1 et les permutations dans Sn qui fixent n, donnée par
τ 7→ τ̃
(
τ (r), r 6= n
τ̃ (r) =
n, r = n.
De plus, on vérifie assez facilement (Exercice !) que la signature est préservée, c’est
à dire ε(τ ) = ε(τ̃ ).
Enfin, avec cette observation, la formule Eq. (2) devient

X n−1
Y
det(D) = ε(σ) drσ(r)
σ∈Sn−1 r=1

qui n’est autre que ∆ki (le déterminant de la matrice obtenue de A en supprimant
la k-ième ligne et la i-ième colonne). La preuve est achevée. 

Corollaire 3.13. Avec les notations du Théorème 3.12 on a pour tout k 6= r :


n
X n
X
i
(−1) aki ∆ri = 0 = (−1)j ajk ∆jr .
i=1 j=1

Démonstration. On démontre que la première égalité car l’autre se démontre de la


même façon. Autrement, en utilisant la transposée (Lemme 2.24) elle découle de la
première.
La grosse différence avec la formule de Laplace (Théorème 3.12) est que les indices
de aki et de ∆ri sont distincts ! 6
Soit A0 = (a0ij ) la matrice obtenue de A en remplaçant la r-ième ligne de A par la
k-ième ligne de A. La matrice A0 a donc deux lignes égales : la k-ième et la r-ième.
On sait donc que det(A0 ) = 0, voir Théorème 2.31 (2).
Remarquons que ∆0ri = ∆ri et a0ri = aki pour tous les i ∈ [[1, n]].
La formule de Laplace (Théorème 3.12) appliquée à A0 et à la r-ième ligne nous
donne
n
X n
X
det(A0 ) = (−1)r+i a0ri ∆0ri = (−1)r (−1)i aki ∆ri
i=1 i=1
Pn i
d’où 0 = i=1 (−1) aki ∆ri et on a fini. 

La formule de Laplace couplée avec ce dernier corollaire nous permettent de prouver


une autre jolie propriété du déterminant. Pour l’énoncer, introduisons une notation
Définition 3.14. Pour A ∈ Mn (K) on pose com A =t((−1)i+j ∆ij ) où ∆ij sont les
mineurs (i, j) de la matrice A (voir Definition 3.10) .
Théorème 3.15. (Laplace) Soit A ∈ Mn (K). Alors on a
A · com(A) = det(A)In = com(A) · A.

Démonstration. Posons pour simplifier com(A) = (bij ). Par la définition de com(A)


on a bij = (−1)i+j ∆ji .
On calcule les coefficients du produit A com(A) :
n n
(
X X
i+r det(A) k = r
(A com(A))kr = aki bir = (−1) aki ∆ri =
i=1 i=1
0 k=6 r
où, pour la dernière égalité, on a utilisé la formule de Laplace et son corollaire (voir
Théorème 3.12, Corollaire 3.13).
Cela revient à dire exactement A · com(A) = det(A)In .
L’autre égalité com(A) · A = det(A)In se démontre pareil. (Exercice !) 

On rappelle qu’une matrice A ∈ Mn (K) est dite inversible s’il existe une matrice
B ∈ Mn (K) telle que AB = In = BA.
Avec cette définition il est difficile de décider si une matrice est inversible ou pas.
C’est pourquoi le résultat suivant est très utile en ce respect :
Corollaire 3.16. Soit A ∈ Mn (K). Alors A est inversible si et seulement si
det(A) 6= 0. 7. Dans ce cas, son inverse est donnée par A−1 = det(A)−1 com(A).
Remarque 3.17. Attention à ne pas confondre le résultat de ce corollaire pour la
définition de matrice inversible ! !

6. Une autre différence est le signe : ici (−1)k manque, mais il manque dans tous les termes et
c’est un facteur commun, donc il est moins important.
7. Pour K = Z ou un autre anneau on remplace 6= 0 par « inversible dans K »
Démonstration. On a un si et seulement si donc il y a deux implications à démontrer.
Supposons que A est inversible. Par définition il existe B ∈ Mn (K) telle que AB = In .
En prenant le déterminant dans cette égalité et en utilisant le Théorème 2.33 on
trouve det(A) det(B) = 1 d’où det(A) 6= 0.
Réciproquement, supposons det(A) 6= 0. Il faut montrer que A est inversible, soit qu’il
existe une matrice B ∈ Mn (K) telle que AB = BA = In . Il suffit de trouver/deviner
cette matrice B et montrer qu’elle vérifie AB = BA = In .
Prenons B := det(A)−1 com(A) qui est bien définie car det(A) 6= 0.
Le Théorème 3.15 montre que AB = BA = In , autrement dit A est inversible et B
est son inverse. 

3.2. Démonstration Cayley-Hamilton. On peut enfin démontrer le théorème


de Cayley-Hamilton :
Pn−1
Démonstration du Théorème 3.6. Posons pA := det(tIn − A) = tn + k=0 ck tk le
polynôme caractéristique de A. On va appliquer le Théorème 3.15 à tIn − A.
Faisons d’abord la remarque suivante : la matrice com(tIn − A) a comme coefficients
les mineurs (n − 1) × (n − 1) de la matrice tIn − A, et donc la puissance maximale
de t qui peut apparaitre est tn−1 . On regroupant les coefficients selon les puissances
de t on peut donc écrire
n−1
X
com(tIn − A) = t k Mk
k=0
où Mk ∈ Mn (K) sont des matrices.
Par le Théorème 3.15 on a
(tIn − A) · com(tIn − A) = pA (t)In et en remplaçant
n−1
X n−1
X n−1
X
tk+1 Mk − tk AMk = tn In + ck tk In
k=0 k=0 k=0
d’où, en comparant les coefficients des puissances de t, la chaine d’égalités :
Mn−1 = In
Mn−2 − AMn−1 = cn−1 In
Mn−3 − AMn−2 = cn−2 In
Mn−4 − AMn−3 = cn−3 In
..
.
M1 − AM2 = c2 In
M0 − AM1 = c1 In
−AM0 = c0 In
En multipliant la ligne dont le terme à droite est ck In par Ak et on prenant la
somme de toutes les lignes ainsi obtenues on trouve
c0 In + c1 A + c2 A2 + · · · + cn−1 An−1 + An = On
qui n’est autre que pA (A) = On et le théorème est démontré. 

Remarque 3.18. D’autres preuves peuvent être données (qui utilisent d’autres outils)
mais celle-ci est la plus générale et marche sur un corps quelconque (même sur
un anneau commutatif quelconque). Par exemple, une fois la forme canonique de
Jordan établie, on peut donner une autre démonstration et on le fera si le temps le
permettra.

Voici quelques petits exemples pour voir comment on pourrait utiliser le théorème de
Cayley-Hamilton (Théorème 3.6). On verra plus tard des exemples plus sophistiqués :
Exemple 3.19. Soit A ∈ M2 (K) telle que A2019 = O2 . Montrer que A2 = O2 .
Voici ce que l’on pourrait faire pour démontrer ce résultat. Démontrons par récurrence
descendante sur n que An = O2 pour tout n ≥ 2.
Premièrement, par la multiplicativité du déterminant (Théorème 2.33) on a det(A)n =
0 d’où det(A) = 0.
Le théorème de Cayley-Hamilton nous dit (en tenant compte que det(A) = 0) :
A2 = tr(A)A
d’où en itérant on a
A2019 = tr(A)2018 A.
D’après l’hypothèse on A2019 = O2 et donc tr(A)2018 A = O2 . Deux possibilités : soit
A = O2 soit tr(A) = 0. Dans les deux cas on trouve tr(A) = 0 et en remplaçant
dans le théorème de Cayley-Hamilton on a donc A2 = O2 .
Exemple 3.20. Soit A ∈ Mn (K). Supposons A1870 = On . Montrer que An = On .
La preuve est similaire et on l’esquisse (le lecteur intéressé complétera les détails).
Ecrivons le polynôme caractéristique de A
pA = c0 + c1 t + . . . cn−1 tn−1 + tn .

Comme det(A) = 0 (en appliquant le déterminant à l’hypothèse) on a c0 = 0. Si tous


les ck sont nuls pour k = 0, 1, . . . , n − 1 on a fini par le théorème de Cayley-Hamilton.
Sinon, soit m le plus petit entier compris entre 0 et n − 1 tel que cm 6= 0.
Montrons par récurrence descendante sur N que AN = On pour tout N ≥ n.
Par hypothèse on a que AN = On pour tout N ≥ 1870. Si N > n alors en multipliant
la formule de Cayley-Hamilton par AN −1−m (qui est possible car N − m − 1 ≥
N − n − 1 ≥ 0) on trouve cm AN −1 + cm+1 AN + · · · + cn AN −m−1+n = On . Comme
cm 6= 0 et tous les autres termes sont On par l’hypothèse de récurrence on tire
AN −1 = On .
Par le principe de récurrence on a donc AN = On pour tout N ≥ n, en particulier
An = On .
Avec un petit peu plus d’effort on peut montrer que pA = tn .
4. Réduction des endomorphismes

Le but de ce chapitre est de trouver des bases adaptées à un endomorphisme


donné tel que sa matrice dans cette base soit la plus simple possible. Les matrices
les plus simples sont celles qui sont diagonales et ensuite celle qui sont triangu-
laires. Nous montrerons que tout endomorphisme est triangulaire dans une certaine
base, autrement dit toute matrice peut être conjuguée en une matrice triangulaire
(Théorème 4.51).
Ensuite, on voudrait savoir, par exemple, sous quelles conditions un endomorphisme
est diagonal dans une certaine base (voir Théorème 4.39). L’aboutissement de nos
efforts sera de démontrer que tout endomorphisme a une forme très particulière dans
une certaine base - la forme canonique de Jordan (Definition 4.59, Théorème 4.60). On
finira par démontrer la décomposition de Jordan–Chevalley 8 qui nous dit que toute
matrice s’écrit, de façon unique ( !), comme la somme d’une matrice diagonalisable
et une matrice nilpotente qui commutent entre elles (voir Théorème 4.63).
Pour ce faire on aura besoin d’introduire quelques outils : valeurs et vecteurs propres,
polynôme minimal, espace propre généralisé.

4.1. Vecteurs et valeurs propres. Soit V un espace vectoriel et soit u ∈ L(V )


un endomorphisme. On voudrait comprendre u le mieux possible. Par exemple, si
on arrive à trouver une décomposition de V en somme directe V1 ⊕ V2 on pourrait
chercher à comprendre la restriction de u à V1 et à V2 qui sont de dimension plus
petite (donc plus simples) et ensuite utiliser cette information pour comprendre u
sur V .
Un des premiers problèmes apparait si u(Vi ) 6⊂ Vi ... Pour cela donc il faut trouver
une décomposition de V en somme directe telle que chaque morceau soit invariant
par u.
Définition 4.1. Soit u ∈ L(V ). Un sous-espace vectoriel W ⊂ V est dit u-invariant
(ou invariant sous u, ou encore u-stable) si u(W ) ⊂ W .
Exemple 4.2.
(1) Soit u = λidV , où λ ∈ K. Alors tout sous-espace de V est invariant sous u.
(2) Soit u ∈ L(V ). Alors {0} et V sont deux sous-espaces u-invariants. Ils sont,
en un sens, triviaux.
(3) Soit u : K2 → K2 donné par u(x, y) = (2x, 3y). Alors K · (1, 0) est un
sous-espace u-invariant. De même pour K · (0, 1).
(4) Soit u : R2 → R2 donné par u(x, y) = (y, −x). Alors u n’a aucun sous-
espace invariant non-trivial. En effet, comme on est en dimension deux, cela
revient a trouver un vecteur x = (x1 , x2 ) non nul, tel que {x, u(x)} soient
linéairement dépendants. Mais, géométriquement u est une rotation d’angle
90◦ , donc il n’existe pas de tel vecteur. Exercice : Vérifiez ce que j’ai dit et
après montrez-le aussi algébriquement.

8. aussi dite de Dunford dans la littérature française


Exemple 4.3. Soit u ∈ L(V ). Alors ker(u) et Im(u) sont u-invariants.
Montrons-le pour Im(u) et laissons l’autre en exercice( !).
Commençons par rappeler ce qu’est l’image de u :
Im(u) = {y ∈ K3 | il existe x ∈ K tel que u(x) = y}.
Pour tout x ∈ K3 on a donc u(x) ∈ Im(u), donc en particulier pour tout x ∈ Im(u)
on a u(x) ∈ Im(u). En d’autres mots u(Im(u)) ⊂ Im(u).
Lemme 4.4. [BESOIN ?] Soient u, f ∈ L(V ) deux endomorphismes. Supposons
qu’ils commutent uf = f u. Si W ⊂ V est un sous-espace u-invariant alors f (W )
est aussi un sous-espace u-invariant.

Démonstration. Soit y ∈ f (W ). Alors il existe x ∈ W tel que y = f (x). On a donc


u(y) = u(f (x)) = f (u(x)) ∈ f (W ) car u(x) ∈ W . Du coup u(f (W )) ⊂ f (W ). 
Lemme 4.5. Soit u, f ∈ L(V ) deux endomorphismes. Supposons qu’ils commutent :
uf = f u. Alors ker(f ) et Im(f ) sont u-stables.

Démonstration. Soit v ∈ ker(f ). Alors f (u(v)) = u(f (v)) = 0 et donc u(v) ∈ ker(f ).
On a démontré que u(ker(f )) ⊂ ker(f ), ou en d’autres mots ker(f ) est u-stable.
Exercice : démontrez-le pour l’image. 
Remarque 4.6. En termes matriciels, le Lemme précédent s’énonce ainsi : si A, B ∈
Mn (K) commutent alors ker(B) et Im(B) sont stables par A.

Donnons des exemples d’espaces u-stables.


Exemple 4.7. Soit u : Kn → Kn donné par u(x1 , x2 , . . . , xn ) = (0, x1 , x2 , . . . , xn−1 ).
Il est facile de voir que u2 (x1 , x2 , . . . , xn ) = (0, 0, x1 , . . . , xn−2 ) et plus généralement
uk (x1 , x2 , . . . , xn ) = (0, . . . , 0, x1 , . . . , xn−k ).
En particulier un = 0 l’endomorphisme nul. Si on note par ei les éléments de la
base canonique de Kn on trouve
ker(u) = hen i
ker(u2 ) = hen−1 , en i
..
.
ker(uk ) = hen−k+1 , . . . , en i
..
.
ker(un−1 ) = he2 , e3 , . . . , en i
ker(un ) = he1 , e2 , . . . , en i = Kn
ker(un+i ) = Kn pour tout i ∈ N.
Exemple 4.8. Soit u : K3 → K3 donné par u(x, y, z) = (y, 0, z).
Alors ker(u) = he1 i, ker(u2 ) = he1 , e2 i, ker(u3 ) = ker(u2 ).
On voit donc que la suite de sous espaces ker(ui ), i ∈ N stabilise au rang 2.
Exemple 4.9. Soit u : K3 → K3 donné par u(x, y, z) = (2x − 3y + z, −3y, 2x + z).
Alors ker(u) = he1 −e2 −e3 i et ker(u2 ) = ker(u). Du coup ici la suite de sous-espaces
ker(ui ), i ∈ N∗ stabilise au rang 1.
Exemple 4.10. Soit u : K5 → K5 donné par u(x1 , x2 , x3 , x4 , x5 ) = (x2 , x5 , x4 , x3 , x1 ).
On voit facilement que ker(u) = {0} et donc ker(ui ) = {0} = ker(u) pour tout i ≥ 1.
La suite de sous-espaces ker(ui ), i ∈ N∗ stabilise donc au rang 0 !

On a trouvé donc une façon de produire des sous-espaces u-stables en prenant ker(ui )
pour i ∈ N. Comme les exemples précédents le montre cela ne pourrait pas suffire
pour notre but, c’est à dire, si ker(u) = {0} on n’a rien produit ! !

4.2. Sous-espaces propres. Motivons un peu l’idée de considérer des sous-espaces


propres.
Soit u ∈ L(V ). On a vu que ker(u), ker(u2 ), . . . sont des sous-espaces stables par u
(voir Lemme 4.4).
Plus généralement, si f ∈ L(V ) est un autre endomorphisme de V qui commute
avec u, i.e f u = uf , alors ker(f ), ker(f 2 ), . . . sont des sous-espaces u-stables (voir
Lemme 4.5).
Du coup la question qui se pose est : étant donné u ∈ L(V ) comment trouver
d’autres endomorphismes de V qui commutent avec u ? Il ne faut pas chercher
très loin : on sait déjà que ui , i ∈ N∗ commute avec u et que IdV commute avec
u. Alors toute combinaison linéaire de ceux-la commutera avec u. Par exemple
u2 − u + idV commute avec u ! Autrement dit, pour tout polynôme P ∈ K[X] on a
que l’endomorphisme P (u) commute avec u et donc ker(P (u)) sont des sous-espaces
u-stables et ceci pour n’importe quel polynôme P ∈ K[X] ! !
Parmi les polynômes les plus simples que l’on puisse imaginer se trouvent ceux de
degré 1 ! Par exemple pour λ ∈ K on pourrait considérer le polynôme P = X − λ. La
discussion précédente nous dit que ker(u − λidV ) est un sous-espace u-stable ! S’il
est non-trivial nous sommes contents car cela nous approche de notre but (simplifier
u).
Définition 4.11. Les λ ∈ K tels que ker(u − λidV ) 6= {0} s’appellent les valeurs
propres de u et dans ce cas on appelle ker(u − λidV ) l’espace propre associé à la
valeur propre λ.
Remarque 4.12. Une autre façon, équivalente, de définir les valeurs propres est :
λ ∈ K est dite valeur propre de u s’il existe v ∈ V non-nul tel que u(v) = λv.
Exercice 4.13. Assurez-vous d’avoir compris pourquoi les deux définitions sont
équivalentes.
Définition 4.14. Soit λ ∈ K une valeur propre de l’endomorphisme u. Un vecteur
propre de u pour la valeur propre λ est un élément non-nul v ∈ V tel que u(v) = λv.
Remarque 4.15. Si v est un vecteur propre de l’endomorphisme u alors hvi ⊂ V est
un sous-espace u-stable de dimension 1.
Tous les sous-espaces u-stables de dimension 1 proviennent des vecteurs propres.
En effet, soit W ⊂ V un sous-espace u-stable de dimension 1. Soit v ∈ W non-nul.
Comme u(W ) ⊂ W et W = hvi on a donc u(v) = λv pour un certain λ ∈ K. Donc
v est un vecteur propre pour u.

Reprenons certains des exemples précédents


Exemple 4.16. Soit u : K5 → K5 donné par u(x1 , x2 , x3 , x4 , x5 ) = (x2 , x5 , x4 , x3 , x1 ).
Prenons v := (1, 1, 1, 1, 1). On vérifie u(v) = v et donc v est un vecteur propre de
u pour la valeur propre 1. De même pour v0 := (0, 0, 1, 1, 0). De plus v et v0 sont
linéairement indépendants.
On trouve ainsi ker(u − idV ) = hv, v0 i et on a produit un sous-espace u-stable
non-trivial ! Remarquez que de plus, u agit par l’identité sur cet sous-espace !
Exemple 4.17. Soit u : K3 → K3 donné par u(x, y, z) = (y, 0, z).
Le vecteur v := (0, 0, 1) vérifie u(v) = v et donc c’est un vecteur propre de valeur
propre 1. Le sous espace hvi est u-stable.
Exemple 4.18. Soit u : K3 → K3 donné par u(x, y, z) = (2x + 2z, −3x − 3y, x + z).
Le vecteur v := (0, 1, 0) est un vecteur propre de valeur propre −3.
Le vecteur w := (2, −1, 1) est un vecteur propre de la valeur propre 3.
Le vecteur z := (1, −1, −1) est un vecteur propre de la valeur propre 0.
On remarque donc que l’on a obtenu trois sous-espace u-stables, tous de dimension
1. De plus les vecteurs v, w, z sont linéairement indépendants et nous sommes en
dimension 3 donc K3 = hvi ⊕ hwi ⊕ hzi.
Dans cet exemple on est arrivé au bout de notre objectif : on a décomposé V en des
sous-espaces u-stables de dimension 1 (plus fin ce n’est pas possible).
Dans la base v, w, z l’endomorphisme u devrait avoir une tête très simple. En effet,
sa matrice dans cette base est  
−3
 3 
0
c’est à dire une matrice diagonale.

Il est clair que si l’on veut simplifier les endomorphismes, il faut chercher les vecteurs
propres. Mais pour cela il faudrait connaitre déjà les valeurs propres et on n’a pas
envie de tester tous les λ ∈ K... La proposition suivante nous sauve :
Proposition 4.19. Soit u ∈ L(V ) un endomorphisme. Alors les valeurs propres de
u sont exactement les racines de son polynôme caractéristique.

Démonstration. Soit λ ∈ K. Alors λ est une valeur propre de u si et seulement si


ker(λidV − u) 6= {0} si et seulement si 9 det(λidV − u) = 0 qui est équivalent à
Pu (λ) = 0, c’est à dire λ est une racine du polynôme caractéristique de u. 

9. rappel : un système linéaire AX = On,1 à des solutions non-nulles si et seulement si


det(A) = 0
Une stratégie pour simplifier les endomorphismes se dégage :
— on calcule le polynôme caractéristique
— on trouve les valeurs propres
— on trouve les vecteurs propres associés
— on espère qu’il y en a assez pour fabriquer une base
— la matrice de notre endomorphisme sera diagonale dans cette base
— on a atteint notre but et on est contents !
Avant de se lancer dans des démonstrations, regardons d’autres exemples :
Exemple 4.20. Soit u : K3 → K3 donné par
u(x, y, z) = (−y + 3z, x + 2y − 2z, 2z).
Le polynôme caractéristique vaut (X − 1)2 (X − 2), donc les valeurs propres sont 2
et 1 (multiplicité 2).
Le vecteur v = (0, 0, 1) est un vecteur propre pour la valeur propre 2.
Pour la valeur propre 1 le vecteur w = (1, 1, −1) est propre mais on n’en trouve pas
un autre qui n’est pas colinéaire à celui-ci.
Nous sommes arrivés à un problème : on n’a pas assez de vecteurs propres pour
faire une base...
Remarquons que dim ker(u − id) = 1 et dim ker(u − id)2 = 2.
Exemple 4.21. Soit u : K2 → K2 défini par u(x, y) = (x + y, y).
Il a une unique valeur propre, à savoir 1 mais avec multiplicité 2. L’espace propre
correspondant à 1 est engendré par v = (1, 0). Ici non-plus on n’as pas obtenu une
base de V ...
Remarquons que l’on a dim ker(u − id) = 1 et dim ker(u − id)2 = 2.

Les exemples précédents montrent que notre stratégie ne marche pas toujours. Elle
marche seulement quand on trouve suffisamment de vecteurs propres pour obtenir
une base de notre espace vectoriel.
Pourquoi ? la réponse est que tous les endomorphismes ne sont pas diagonalisables 10.
En effet, on a des exemples faciles à disposition : u : K2 → K2 donné par u(x, y) =
(0, x) n’est diagonal dans aucune base. Raisonnons par réduction à l’absurde. S’il
existait une base hv1 , v2 i dans laquelle il était diagonal, les coefficients sur la
diagonales devraient être ses valeurs propres, à savoir 0 et 0. Il s’agirait donc de
l’endomorphisme nul (car l’unique matrice diagonale avec valeurs propres nulles) ce
qui est absurde car u 6= 0. Remarquons que l’on a dim ker u = 1 et dim ker u2 = 2.
Il faudrait donc améliorer notre stratégie pour couvrir aussi le phénomène que l’on
vient de voir. On fera cela dans la Section 4.7.
Cependant, de ces derniers exemples on soupçonne que le problème avec notre
stratégie provient du fait que dim ker(u − λid) < dim ker(u − λid)2 et nous sommes
amenés à penser que si cette situation n’arrive pas, alors on peut diagonaliser notre
endomorphisme.
10. ça veut dire qu’il existe des endomorphismes dont la matrice dans aucune base n’est diagonale ;
c’est à dire on ne peut pas les amener à une forme diagonale !
Remarque 4.22. Considérons u : R2 → R2 défini par u(x, y) = (y, −x). Le polynôme
caractéristique est X 2 + 1 et il n’a aucune racine dans R. Donc on n’a aucune valeur
propre dans R ce qui fait que si l’on veut simplifier d’avantage notre endomorphisme
on est obligé d’aller à C.

Important

Le théorème fondamental de l’algèbre (Théorème 1.68) nous dit que tout


polynôme de degré n ≥ 1 à coefficients complexes a exactement n racines
(comptées avec multiplicités). C’est pour ça que nous allons nous restreindre a
dorénavant au cas K = C. Ne soyez pas déçus car bien comprendre le cas des
coefficients complexes est déjà un bel objectif !
a. La théorie existe sur n’importe quel corps K mais les énoncés sont un peu plus
compliqués. Si le temps le permet, on esquissera ce qui se passe sur R.

4.3. Idéaux d’annulation. On rappelle qu’une matrice n’est autre chose que les
coefficients d’un endomorphisme dans une base fixée. Dorénavant on suppose connu
et maitrisé le passage d’un endomorphisme+base vers sa matrice et vice-versa. 11
Soit V un K-espace vectoriel. On notera par L(V ) = End(V ) le K-espace vectoriel
des applications linéaires de V dans V (les endomorphismes de V ). C’est un espace
vectoriel de dimension dim(V )2 .
Soit u : V → V un endomorphisme de V (c’est à dire, une application linéaire de V
dans V ). Si P ∈ K[X] est un polynôme on peut considérer son « évaluation » en u :
pour P (X) = a0 + a1 X + a2 X 2 + . . . ar X r on pose P (u) := a0 idV + a1 u + a2 u2 +
· · · + ar ur . Il est clairement un endomorphisme de V car l’ensemble L(V ) est stable
par addition et composition des fonctions.
De plus, si v est un automorphisme de V on a P (vuv −1 ) = vP (u)v −1 .
Le polynôme caractéristique pu d’un endomorphisme u ∈ L(V ) est le polynôme
caractéristique de sa matrice dans une base quelconque (le fait que cela ne dépend
pas de la base choisie vient du Corollaire 3.5).
Le théorème de Cayley-Hamilton s’énonce ainsi : pu (u) = 0.
Introduisons la définition de l’idéal d’annulation d’un endomorphisme :
Définition 4.23. Pour u ∈ L(V ) on considère
Iu := {P ∈ K[X] | P (u) = 0} .
Remarque 4.24. Si u, v ∈ L(V ) avec v inversible alors Iu = Ivuv−1 .
Lemme 4.25. Soit u ∈ L(V ). Alors Iu est un idéal de K[X] et de plus Iu 6= K[X].

Démonstration. Premièrement 1 6∈ Iu pour aucun u. En effet, le polynôme constant


1 évalué en u vaut idV qui n’est pas l’endomorphisme nul.
Soient P, Q ∈ Iu . Alors par la définition de l’évaluation d’un polynôme en un
endomorphisme on a (P + Q)(u) = P (u) + Q(u) = 0 + 0 = 0 donc P + Q ∈ Iu .

11. N’hésitez pas à réviser ou à poser des questions si vous avez des lacunes.
Soient P ∈ Iu et Q ∈ K[X]. Alors (AP )(u) = A(u)P (u) = A(u) · 0 = 0, donc
AP ∈ Iu et la démonstration est terminée. 
Remarque 4.26. D’après le théorème de Cayley-Hamilton on a que Iu contient le
polynôme caractéristique de u, donc Iu 6= (0).
Exemple 4.27. Voici une façon d’utiliser le fait que Iu est principal (voir Théo-
rème 1.26). Supposons qu’une matrice AMn (K) satisfait A7 + A6 + A5 = On et
A13 + A8 + In = On . Alors pour un nombre naturel k ∈ N on a Ak = In si et
seulement si 3 divise k.
En effet, l’idéal d’annulation IA contient X 7 + X 6 + X 5 et X 13 + X 8 + 1. Comme
l’idéal est principal, il est engendré par un seul polynôme. Le pgcd de ces deux
polynômes vaut X 2 + X + 1 et donc on a trois possibilités pour l’idéal IA :

2
(X + X + 1)K[X]

IA = (X − j)K[X]

(X − j 2 )K[X]

où j est une racine du polynôme X 2 + X + 1 dans K (si ça existe !).


Donc ce que l’on trouve sur A est que soit A2 + A + In = On , soit A = jIn , soit
A = j 2 In . Dans les trois cas on voit que Ak = In si et seulement si 3 divise k.

4.4. Polynôme minimal. Dans cette section on introduit le concept de polynôme


minimal d’une matrice (ou endomorphisme). On montrera qu’il divise le polynôme
caractéristique. Comme le nom l’indique, il s’agit de l’équation polynômiale de plus
petit degré qui est satisfaite par l’endomorphisme/matrice.
Définition 4.28. Pour un endomorphisme u ∈ L(V ) on note par mu le générateur 12
unitaire de Iu .
Corollaire 4.29. Le polynôme caractéristique d’un endomorphisme est divisible
par le polynôme minimal.

Démonstration. L’idéal d’annulation de l’endomorphisme contient le polynôme


caractéristique (Cayley-Hamilton Théorème 3.6) et est engendré par le polynôme
minimal, donc le polynôme minimal divise le polynôme caractéristique. 
Exemple 4.30. Soit u : K3 → K3 donné par u(x, y, z) = (0, 0, x). Alors sont
polynôme minimal est mu = X 2 .
En effet, le polynôme caractéristique se calcule facilement (matrice) pu = X 3 . On
sait que le polynôme minimal le divise. Comme u 6= 0 on a mu 6= X et puisque
u2 = 0 on trouve mu = X 2 .
Exemple 4.31. Soit u : K3 → K3 donné par u(x, y, z) = (0, 0, z). Alors son
polynôme minimal est mu = X(X − 1).
En effet, le polynôme caractéristique se calcule facilement (matrice) pu = X 2 (X − 1).
On sait que le polynôme minimal le divise. Comme u = 6 0 on a mu 6= X. Pareil,
u 6= id implique mu 6= X − 1 et u2 6= 0 implique mu = 6 X 2 . Puisque u(u − id) = 0
on trouve mu = X(X − 1).
12. On a démontré que Iu est un idéal non-nul et que tout idéal de K[X] est principal (Théo-
rème 1.26).
Exemple 4.32. Soit u : K3 → K3 donné par u(x, y, z) = (y, x, z). Alors son
polynôme minimal est mu = X 2 − 1.
En effet, un calcul nous donne le polynôme caractéristique pu = (X − 1)(X 2 − 1).
On remarque que u 6= ±id donc mu 6= X ± 1. On calcule (u2 − id) et on voit qu’il
est nul. Donc mu = X 2 − 1.
Exemple 4.33. Soit u : K3 → K3 donné par u(x, y, z) = (y, −x, z). Alors son
polynôme minimal est mu = (X 2 + 1)(X − 1).
En effet, un calcul nous donne le polynôme caractéristique pu = (X − 1)(X 2 + 1).
On remarque que u 6= ±id donc mu = 6 X ± 1. On calcule (u2 + id) et on voit qu’il
2
est non-nul. Donc mu = (X + 1)(X − 1).
Remarque 4.34. Comme vous l’avez peut-être remarqué, si A ∈ Mn (K) alors son
polynôme minimal mA vérifie mA ∈ K[X]. Ceci veut dire, par exemple, que si
A ∈ Mn (R) alors son polynôme minimal est aussi à coefficients réels (non seulement
complexes !). Ou bien si A ∈ Mn (Q) alors on polynôme minimal est lui aussi
à coefficients rationnels (non seulement complexes ou réels). Ceci est utile pour
raccourcir les possibilités pour le polynôme minimal (en tant que diviseur du
polynôme caractéristique) ce qui peut raccourcir les calculs.
Exercice 4.35. Soit u ∈ L(V ). Montrer que la dimension de span{id, u, u2 , . . .} ⊂
L(V ) est égale au degré du polynôme minimal de u.
Indication : considérer une combinaison linéaire non-triviale et en fabriquer un
polynôme.

4.5. Endomorphismes diagonalisables (semisimples). Dans cette section on


travaille sur le corps des nombres complexes C sauf mention contraire. La raison est
que tout polynôme complexe se factorise en un produit de polynômes de degré 1 et
du coup les endomorphismes ont toutes les valeurs propres.
On se fixe V un C-espace vectoriel de dimension finie. On note par n sa dimension.
Si λ est une valeur propre de f on note par mf,λ , ou encore mλ s’il n’y a pas danger
de confusion, la multiplicité de λ en tant que racine du polynôme caractéristique
de f . Comme on est sur C on a d’après le théorème fondamental de l’algèbre
(Théorème 1.68)
X
mf,λ = n.
λ

Théorème 4.36. Le polynôme minimal d’un endomorphisme f ∈ L(V ) a les mêmes


racines que le polynôme caractéristique.

Démonstration. Notons par Mf le polynôme minimal de f et par Pf son polynôme


caractéristique. On sait déjà que Mf | Pf (Corollaire 4.29) et donc les racines de
Mf sont parmi les racines de Pf (Proposition 1.59).
Réciproquement, soit λ une racine du polynôme caractéristique Pf de f . Par la
définition de valeur propre, il existe donc un vecteur non nul v ∈ V tel que f (v) = λv.
De plus, Mf (f )v = Mf (λ)v (Vérifiez !) et comme Mf (f ) = 0 et v 6= 0 on en déduit
Mf (λ) = 0. 
Corollaire 4.37. Les valeurs propres d’un endomorphisme sont précisément les
racines du polynôme minimal.
Définition 4.38. Un endomorphisme f ∈ L(V ) est dit diagonalisable (ou semi-
simple) s’il existe une base v1 , v2 , . . . , vn de V dans laquelle la matrice de f est
diagonale.

Voici l’aboutissement de notre raisonnement de la section précédente :


Théorème 4.39. Soit f ∈ L(V ) un endomorphisme. Les affirmations suivantes
sont équivalentes
(1) f est diagonalisable
(2) pour toute valeur propre λ on a dim(ker(f − λidV )) = mf,λ
(3) le polynôme minimal de f n’a que des racines simples.

Pour le démontrer, on aura besoin de plusieurs résultats préliminaires. D’abord,


quelques rappels :
Rappel : pour un espace vectoriel V et des sous-espaces vectoriels W1 , . . . , Ws de
V on dit qu’ils sont en somme directe si
s
X
si wi ∈ Wi , i = 1, . . . , s, ET wi = 0 ALORS wi = 0 pour tout i = 1, . . . , s
i=1
et on note ça par W1 ⊕ W2 ⊕ · · · ⊕ Ws ⊆ V .
Une autre manière de le dire est que W1 , . . . , Ws sont linéairement indépendants.
Ou encore, si Bi est un base pour Wi pour tout i = 1, . . . , s, alors tsi=1 Bi sont
des vecteurs linéairement indépendants dans V (pas forcément une base car ils
pourraient ne pas tout engendrer).
P
Remarquez que dans cette situation on a une inégalité de dimensions : i dim(Wi ) ≤
dim(V ) avec égalité si et seulement si W1 ⊕ W2 ⊕ · · · ⊕ Ws = V .
Rappel : Si V = V1 ⊕ V2 ⊕ · · · ⊕ Vr et fi ∈ L(Vi ) alors on note f1 ⊕ f2 ⊕ · · · ⊕ fr
l’endomorphisme de V donné par
Xr
v1 ⊕ v2 ⊕ · · · ⊕ vr 7→ fi (vi ), où vi ∈ Vi .
i=1

Si on prend Bi une base pour Vi et on note la matrice de fi dans cette base Ai alors
la matrice de ⊕ri=1 fi dans la base ∪ri=1 Bi est donnée par
 
A1 O O ... O
 O A2 O . . . O 
 
 ..
 

 . 
O O O ... Ar
donc c’est une matrice diagonale par blocs.
Exemple 4.40. Dans V := K6 on prend W1 = he1 , e2 i, W2 = he1 + e3 , e4 − e2 i,
W3 = he5 − e3 − e6 i. On vérifie que W1 , W2 , W3 sont en somme directe dans V . De
plus, on a que W1 ⊕ W2 ⊕ W3 est de dimension 2 + 2 + 1 = 5.
L’exercice suivant est très important :
Exercice 4.41. Soient u un endomorphisme, P ∈ K[X] un polynôme. Montrer que
si λ est une valeur propre de u alors P (λ) est une valeur propre de P (u)
Lemme 4.42. Soit f ∈ L(V ) et soient λ1 , . . . , λr ∈ K les valeurs propres (dis-
tinctes) de f . Notons par Vλ les espaces propres associés. Alors Vλ1 , . . . , Vλr sont
en somme directe dans V .

Démonstration. Soient wi ∈ Vλi pour i = 1, . . . , s tels que


X s
(3) wi = 0.
i=1
Il faut démontrer que wi = 0 pour tout i = 1, . . . , s.
On vérifie avec aisance que si P ∈ K[X] est un polynôme alors P (f )wi = P (λi )wi
(voir Exercice 4.41).
Soient Pi ∈ K[X], i = 1, . . . , s, des polynômes tels que
(
1 i=j
Pi (λj ) = .
0 i 6= j
Exercice 4.43. Montrer qu’il existe de tels polynômes. Indication : faites-le pour
deux valeurs propres d’abord, utilisez qu’elles sont distinctes (c’est essentiel).

On applique Pj (f ) à l’Eq. (3) et on obtient pour tout j = 1, . . . , s


s
X s
X
0= Pj (f )wi = Pj (λi )wi = wj
i=1 i=1
d’où wj = 0 pour tout j = 1, . . . , s. 
Lemme 4.44. Soient f1 , . . . , fr ∈ L(V ) tels que f1 f2 · · · fr = 0. Alors on a
X r
dim(ker fi ) ≥ dim(V ).
i=1

Démonstration. Par récurrence sur r et dim(V ). Le cas r = 1 est trivial. Les cas
r = 2 est le cœur de la preuve.
Supposons donc f1 f2 = 0. Alors cela veut dire que Im(f2 ) ⊂ ker(f1 ) et donc
dim Im(f2 ) ≤ dim ker(f1 ). Par le théorème du rang, on a dim(V ) = dim(Im(f2 )) +
dim(ker(f2 )) et en conséquent dim ker(f1 ) + dim ker(f2 ) ≥ dim(V ).
Le cas général : supposons que c’est vrai pour r et démontrons le pour r + 1.
On a f1 f2 . . . fr fr+1 = 0 d’où (f1 f2 . . . fr )fr+1 = 0. Cela veut dire que Im(fr+1 ) ⊆
ker(f1 . . . fr ). En d’autres mots, f1 . . . fr restreint à W := Im(fr+1 ) est l’endomor-
phisme nul. D’après l’hypothèse de récurrence on déduit
(4) dim(ker(f1 )) + · · · + dim(ker(fr )) ≥ dim(W ) = dim(Im(fr+1 ))
= dim(V ) − dim(ker(fr+1 ))
et en remettant le terme dim(ker(fr+1 )) à gauche on a fini. 
Démonstration. (du Théorème 4.39) Soient λ1 , . . . , λr les valeurs propres (distinctes)
de f et Vλi les espaces propres associés.

(1)⇒(2) Si f est diagonalisable, cela veut dire que dans une certaine base de V sa
matrice est
 
λ1 In1 0 0 ... 0
 0 λ2 In2 0 . . . 0 
(5) .
 
 ..
 . 
0 0 0 . . . λr I nr
Qr
Donc le polynôme caractéristique de f est Pf = i=1 (X − λi )ni . La matrice de
λi idV − f dans cette base est diagonale et a exactement 13 ni de ses coefficients
diagonaux égaux à 0. Donc dim(λi idV − f ) = ni .

(2)⇒(1) Les sous-espaces propres sont linéairement indépendants (voir Lemme 4.42)
P P
et donc en particulier on a i dim(ker(λ
P i idV − f )) ≤ dim(V ). Mais i mf,λi =
dim(V ) et donc d’après l’hypothèse i dim(ker(λi idV − f )) = dim(V ). En d’autres
mots, ⊕ri=1 Vλi = V .
Pour tout i = 1, . . . , r, choisissons Bi une base de Vλi . On a alors que B := tri=1 Bi
est une base de V et la matrice de f dans cette base est diagonale (vérifiez !).

(1)⇒(3) Dans une certaine base, la matrice de f est celle de l’Eq. (5) dont le
polynôme minimal est clairement (X − λ1 )(X − λ2 ) . . . (X − λr ).

(3)⇒(1) Supposons que le polynôme minimal Qf de f soit égal à (X − λ1 ) . . . (X −


λr ).
Qr
On a donc i=1 (f − λidV ) = 0 et le Lemme 4.44 nous donne
r
X
dim(ker(f − λi idV )) ≥ dim(V ).
i=1

Par ailleurs, les espaces propres sont linéairement indépendants (voir Lemme 4.42)
et du coup V = ⊕ri=1 Vλi .
Sur chacun des Vλi l’endomorphisme f agit comme λi idVλi donc si Bi sont des bases
de Vλi pour tout i = 1, . . . , r alors B = tri=1 Bi est une base de V dans laquelle la
matrice de f est diagonale (comme dans l’Eq. (5)). 
Corollaire 4.45. Si f ∈ L(V ) n’a que des valeurs propres simples alors f est
diagonalisable.

Démonstration. En effet, si le polynôme caractéristique de f n’a que des racines


simples alors il est égal au polynôme minimal de f . 

Attention

13. car les λi sont distincts


La réciproque du corollaire est fausse : en effet, la matrice A = In n’a qu’une
seule valeur propre, de multiplicité n, et elle est diagonale !

Exemple 4.46. Soit f : C2 → C2 donnée par


f (x, y) = (x + 4z, 2x + 3z).
Le polynôme caractéristique est X 2 − 4X − 5. Ses racines sont −1 et 5 et donc f
est diagonalisable.
Pour trouver une base dans laquelle la matrice de f est diagonale il faut chercher
les vecteurs propres. On vérifie que v−1 := (2, −1) et v5 := (1, 1) sont des vecteurs
propres et dans la base (v−1 , v5 ) la matrice de f est
 
−1
5
Exemple 4.47. O prend la matrice A donnée par
 
4 1 −1
2 5 −2
1 1 2
et on veut voir si elle est diagonalisable.
On calcule son polynôme caractéristique et on trouve PA = X 3 − 11X 2 + 39X − 45 =
(X − 5)(X − 3)2 . Comme il n’a pas que des racines simples, on ne peut pas conclure
que A est diagonalisable (ni qu’elle ne l’est pas, d’ailleurs !). Il faut calculer le
polynôme minimal MA de A.
Nous savons qu’il a les mêmes racines que le polynôme caractéristique (Théo-
rème 4.36) et donc les possibilités pour MA sont (X − 5)(X − 3) ou bien PA .
On calcule (A − 5I3 )(A − 3I3 ) et on trouve O3 . Donc MA = (X − 5)(X − 3) et on
peut conclure grâce au Théorème 4.39 que A est diagonalisable.
 
1 1 1
Exemple 4.48. Soit A la matrice 1 1 1. On veut voir si elle est diagonali-
1 1 1
sable en utilisant le Théorème 4.39.
Son polynôme caractéristique est PA = X 2 (X − 3). On calcule A(A − 3I3 ) et on
trouve O3 . Donc son polynôme minimal est X(X − 3) qui n’a que des racines simples,
donc A est diagonalisable.
De plus, v0 = (1, −1, 0), v00 := (1, 0, −1) et (v3 := (1, 1, 1) est une base de vecteurs
propres dans laquelle la matrice A s’écrit
 
0 0 0
0 0 0
0 0 3
Théorème 4.49. Soient f, g ∈ L(V ) deux endomorphismes diagonalisables. Suppo-
sons que f et g commutent (i.e. f g = gf ). Alors ils sont diagonalisable dans une
même base.
Démonstration. Puisqu’ils commutent, tout espace propre de f est stable par g. Si
on pose Vi l’espace propre de f correspondant à la valeur propre λi alors on a
X
V = Vi
i

une décomposition qui est stable par g. Comme g est diagonalisable, sa restriction
g|Vi ∈ L(Vi ) l’est aussi. Soit Bi une base de Vi dans laquelle g|Vi est diagonale. Alors
B = ∪i Bi est une base de V dans laquelle f et g sont tous les deux diagonaux. 

4.6. Trigonalisation.
Définition 4.50. (trigonalisation) Un endomorphisme f ∈ L(V ) est dit trigonali-
sable s’il existe une base de V dans laquelle sa matrice est triangulaire supérieure.
Théorème 4.51. Si K = C alors tout endomorphisme de V est trigonalisable.

Démonstration. Par récurrence sur dim(V ). Clairement en dimension 1 il n’y a rien


à faire.
Supposons l’énoncé vrai en dimension n et montrons le en dimension n + 1.
Soit f ∈ L(V ) et soit v1 un vecteur propre de f de valeur propre λ1 ∈ C (existe
grâce au Théorème 1.68). Complétons v à une base B = (v, v1 , v2 , . . . , vn ) de V . La
matrice de f dans cette base est de la forme
 
λ ∗
0 B
où B est une matrice carrée de taille n × n. L’endomorphisme noté g de W :=
C{v1 , . . . , vn } correspondant à la matrice B, est trigonalisable par l’hypothèse de
récurrence. Il existe donc une base de W , appelons-la B 0 , dans laquelle la matrice
de g soit triangulaire supérieure. Dans la base (v, B 0 ) la matrice de f est donc
triangulaire supérieure. 

Corollaire 4.52. Deux endomorphismes qui commutent sont trigonalisable dans


une même base.
Remarque 4.53. Dans la pratique, ceci veut dire que si on a deux matrices A et B
dans Mn (C) qui commutent alors il existe une matrice inversible P ∈ Mn (C) telle
que P AP −1 et P BP −1 sont triangulaire supérieures.

Démonstration. La démonstration est une copie-coller de la démonstration du Théo-


rème 4.51. On donne l’esquisse mais on invite le lecteur à écrire une preuve en entier
pour s’assurer de l’avoir bien comprise.
Par récurrence sur dim(V ). La dimension 1 est triviale.
Soit maintenant V de dimension n + 1 et prenons f, g ∈ L(V ) deux endomorphismes
qui commutent.
Soit λ ∈ C une valeur propre de f . Puisque f g = gf on a que ker(f − λidV ) est
stable par g et donc a des vecteurs propres. Soit v ∈ ker(f − λidV ) un tel vecteur
propre pour g ! Il est également un vecteur propre de f par définition.
Complétons v à une base (v, v1 , . . . , vn ) de V . Les matrices de f et g dans cette
base sont de la forme    0 
λ ∗ λ ∗
et .
0 B 0 C
Dans l’espace vectoriel C{v1 , . . . , vn } les endomorphismes correspondant à B et C
commutent (vérifier !) et donc on peut appliquer l’hypothèse de récurrence. 
Corollaire 4.54. Soient f et g deux endomorphismes de V qui commutent. Suppo-
sons de plus g nilpotent. Alors Pf +g = Pf .

Démonstration. On rappelle que Pf signifie le polynôme caractéristique de f .


Puisque f et g commutent ils sont trigonalisable dans une même base. De plus, g
étant nilpotent, la matrice de g dans cette base n’a que des 0 sur la diagonale. Donc
la matrice de f + g est triangulaire et sa diagonale est précisément la diagonale de
f . Comme le polynôme caractéristique d’une matrice triangulaire ne dépend que de
sa diagonale on en déduit que Pf +g = Pf . 

4.7. La forme canonique de Jordan.


Lemme 4.55. Soit P = P1 P2 . . . Pr un produit de polynôme de K[X]. Supposons
qu’ils soient premiers entre eux deux à deux, c’est à dire pgcd(Pi , Pj ) = 1, ∀i 6= j.
Alors pour tout endomorphisme f ∈ L(V ) on a
ker(P (f )) = ker(P1 (f )) ⊕ · · · ⊕ ker(Pr (f )).

Démonstration. Puisque Pi divise P on a clairement que si Pi (f )v = 0Palors P (f )v =


r
0, d’où ker(Pi (f )) ⊂ ker(P (f )) pour tout i. On en déduit l’inclusion i=1 ker(Pi ) ⊂
ker(P ).
L’inclusion réciproque on la démontre par récurrence sur r. Le cas r = 2 est le
coeur de la preuve. On utilise le théorème de Bézout (Théorème 1.39) pour trouver
U, V ∈ K[X] tels que U P1 + V P2 = 1. Soit v ∈ ker(P ) et évaluons l’expression
précédente en v :
(6) v = U (f )P1 (f )v + V (f )P2 (f )v.
Mais le terme U (f )P1 (f )v est dans le noyau de P2 (f ) car P = P1 P2 et P (f )v = 0.
Pour la même raison U (f )P2 (f )v est dans le noyau de P1 (f ). Ceci nous montre que
ker(P (f )) ⊂ ker(P1 (f )) + ker(P2 (f )).
Il nous reste à voir que la somme est directe. Soit v ∈ ker(P1 (f )) ∩ ker(P2 (f )). La
formule Eq. (6) implique v = 0.
L’initialisation est démontrée. Passons à l’hérédité. On écrit P = (P1 · · · Pr )Pr+1 .
D’après l’hypothèse, les polynômes Q := P1 · · · Pr et Pr+1 sont premiers entre eux
(voir Lemme 1.56), donc d’après ce que l’on vient de démontrer on a
ker(P1 (f )P2 (f ) · · · Pr+1 (f )) = ker(Q(f )) ⊕ ker(Pr+1 (f ))
et ensuite on applique l’hypothèse de récurrence à Q pour conclure. 
Définition 4.56. Pour f ∈ L(V ) décomposons son polynôme caractéristique Pf =
Qr ai
i=1 (X − λi ) avec λi distincts. On pose Ṽi := ker(λi idV − f )ai , et on l’appelle
l’espace propre généralisé (ou espace caractéristique) de f associé à λi .
Remarque 4.57. Puisque f commute avec (λidV − f )n quelque soit λ ∈ C, donc
d’après le Lemme 4.4 l’espace propre généralisé Ṽi est f -stable.
Corollaire 4.58. (du Lemme 4.55) Avec les notations précédentes, on a une dé-
composition en somme directe
Mr
V = Ṽi .
i=1

Définition 4.59. Un bloc de Jordan de taille r est une matrice de la forme


 
λ 1 0 ... 0 0
0
 λ 1 . . . 0 0 
0 0 λ . . . 0 0
Jn,λ :=  .
 
 ..


 
0 0 0 . . . λ 1
0 0 0 ... 0 λ

Une somme directe de blocs de Jordan, notée, Jn1 ,µ1 ⊕ Jn2 ,µ2 ⊕ · · · ⊕ Jnk ,µk est une
matrice diagonale par blocs où les blocs sont Jni ,µi . Visuellement
 
Jn1 ,µ1 0 ... 0
 
 0 Jn2 ,µ2 . . . 0 
Jn1 ,µ1 ⊕ Jn2 ,µ2 ⊕ · · · ⊕ Jnk ,µk =  .
 
..

 . 

0 0 ... Jnk ,µk

Théorème 4.60. (forme canonique de Jordan) Pour tout endomorphisme d’un


espace vectoriel on peut trouver une base dans laquelle sa matrice est une somme
directe des blocs de Jordan.
Remarque 4.61. Une autre façon de le dire est : toute matrice A ∈ Mn (C) peut être
conjuguée en une somme directe de blocs de Jordan.

Démonstration. On esquisse l’idée de la construction de cette base.


Soient λ1 , . . . , λr les valeurs propres distinctes de f et notons par Ṽi les espaces
propres généralisés associés. On pose fi ∈ L(Ṽi ) l’endomorphisme de Ṽi induit par
la restriction de f .
Comme V = ⊕ri=1 Ṽi (voir Corollaire 4.58) il suffit de montrer la proposition pour
fi . Autrement dit, on peut supposer sans restreindre la généralité, que f n’a qu’une
seule valeur propre.
Soit λ cette unique valeur propre de f . Alors f − λidV est nilpotent et comme
λidV est diagonale dans n’importe quelle base il suffit de montrer le théorème pour
f − λidV . En d’autres mots, on peut supposer que la seule valeur propre de f est 0.
Soit v1,1 , v2,1 , . . . , vk,1 une base de vecteurs propres de f . Pour chaque i ∈ [[1, k]] on
définit une chaîne (finie, car f nilpotent) de vecteurs vi,j par récurrence, de la façon
suivante :
vi,j+1 ∈ f −1 (vi,j ) si f −1 (vi,j ) 6= ∅
et si f −1 (vi,j ) = ∅ on s’arrête.
On obtient ainsi des chaînes de vecteurs
f f f
v1,1 ←− v1,2 ←− . . . ←− v1,n1
f f f
v2,1 ←− v2,2 ←− . . . ←− v2,n2
...
f f f
vk,1 ←− vk,2 ←− . . . ←− vk,nk
On démontre qu’ils forment une base et on observe que la matrice de f dans cette
base n’est autre que Jn1 ,0 ⊕ Jn2 ,0 ⊕ · · · ⊕ Jnk ,0 .


4.8. Décomposition de Jordan–Chevalley. La motivation principale du résultat


de ce chapitre vient de la théorie des équations différentielles. Plus précisément, il
s’agit de trouver les solutions d’un système d’équations différentielles linéaires de la
forme
X 0 = AX
où l’inconnue X est un vecteur dont les coefficients sont des fonctions dérivables et
A est une matrice carrée à coefficients réels (ou complexes).
Si on cherche les solutions de l’équations différentielles y 0 = f (t)y où l’inconnue
et y une fonction dérivable qui dépend de t alors la théorie de l’intégration
R nous
permet de voir rapidement que les solutions sont de la forme Ke f (t)dt où K est
une constante. En effet, si on
R dérive 0 la formule précédente et on utilise le théorème
fondamental de l’analyse f (t)dt = f on trouve
d
R R
(Ke f (t)dt ) = Kf (t)e f (t)dt
dt
et donc on a bien des solutions de notre équation différentielles.
SiR on veut faire pareil pour un système on aurait besoin de donner un sens à
e Adt . Premièrement on intègre A "case par case", donc comme elle est une matrice
constante Adt = tA. Ensuite il faut donner un sens à etA . Ceci est assez formel
R

n
X Ak
etA := lim tk
n→∞ k!
k=0

d tA
Ensuite on voit facilement que dt e = AetA sans ambiguïté car A commute avec
les polynômes en A. Nous sommes donc ramenés à calculer l’exponentielle d’une
matrice pour pouvoir trouver les solutions d’un système d’équations différentielles.
Remarque 4.62.
−1
(1) eP AP = P eA P −1 quelque soit P une matrice inversible.
(2) Si A est diagonale, disons A = diag(λ1 , . . . , λn ), alors etA = et diag(eλ1 , . . . , eλn )
comme on peut facilement le vérifier.
(3) Si A est nilpotente, c’est à dire Ar = On alors
t2 2 tr−1
etA = 1 + tA + A + ··· + Ar−1
2 (r − 1)!
et donc un a une somme finie qui est calculable (par un ordinateur ou par
un humain si la taille est assez petite).
(4) Si A et B sont deux matrices qui commutent entre elles alors
eA+B = eA eB .
Attention, si elles ne commutent pas c’est faux.
(5) Une idée prend contour : si on arrive a écrire n’importe quelle matrice
comme une somme d’une matrice diagonalisable et une matrice nilpotente
qui commutent entre elles, alors on sait comment calculer eA et du coup on
sait comment résoudre notre système d’équations différentielles.

Soit V un C-espace vectoriel 14 de dimension finie.


Théorème 4.63 (décomposition de Jordan–Chevalley (Dunford)). Soit f ∈ L(V ).
Alors il existe et ils sont uniques d, n ∈ L(V ) tels que
(1) f = d + n

(2) d est diagonalisable et n est nilpotent

(3) nd = dn (c’est à dire n et d commutent).


De plus, n et d sont des polynômes en f .

Avant de passer à la démonstration, quelques faits historiques.


Ce théorème a été découvert par Camille Jordan en 1870. Ceci lui a permis d’en
tirer un algorithme simple pour calculer les puissances d’une matrice et donc
l’exponentielle d’une matrice (comme nous l’avons indiqué plus haut).
Les travaux de Jordan ont été généralisé par Claude Chevalley dans les année 1950 à
des contexte plus généraux (matrices symplectiques, anti-symétriques, orthogonales,
etc.).
Dans des travaux de N. Dunford des années 1955, postérieurs à ceux de Chevalley,
on a aussi retrouvé cette décomposition. C’est donc mieux de l’appeler décompo-
sition de Jordan–Chevalley mais sachez que, surtout en France, on l’appelle aussi
décomposition de Dunford.
Pour démontrer le Théorème 4.63 on aura besoin de plusieurs lemmes qui sont
intéressants indépendamment du fait qu’ils sont nécessaires dans la preuve.
Commençons par une petite remarque :
Remarque 4.64. Si u, v ∈ L(V ) sont deux endomorphismes nilpotents qui commutent
PN
alors u + v est aussi nilpotent. En effet, on a (u + v)N = i=0 Ni ui v N −i et pour


N est assez grand, selon i on a soit ui = 0 soit v N −i = 0.

Il est utile et important d’attirer l’attention du lecteur au fait suivant :

14. Le résultat vaut aussi sur Q, R ou sur des corps bien plus compliqués
Attention

Si A et B sont deux matrices qui ne commutent pas, alors


(A + B)2 = A2 + AB + BA + B 2 6= A2 + 2AB + B 2
et donc la formule du binôme de Newton n’est pas valide dans cette situation.

Il est instructif de faire l’exercice suivant :


Exercice 4.65. Trouver deux matrices nilpotentes telles que leur somme soit
inversible !
Indication : penser à deux matrices 2 × 2 avec une seule entrée non-nulle

Soit f ∈ L(V ) et notons par Pf son polynôme


Qr caractéristique. On pose Q :=
Pf / pgcd(Pf , Pf0 ). Si P se décompose en i=1 (X − λi )ai avec λi distincts alors
Qr
Q = i=1 (X − λi ) (toutes les racines de Q sont simples). Remarquons que si
a = max{ai } alors Pf | Qa et donc Q(f )a = 0. Marquons-le comme un lemme
Lemme 4.66. Avec les notations précédentes on a Q(f ) nilpotent.

Puisque les racines de Q sont simples on voit donc que pgcd(Q, Q0 ) = 1 d’où, par la
construction de Q, on a pgcd(Pf , Q0 ) = 1.
Lemme 4.67. Soit R ∈ C[X] un polynôme premier à Pf . Alors R(f ) est inversible.

Démonstration. Par Bézout (Théorème 1.39) il existe U, V ∈ C[X] tels que U R +


V Pf = 1. En évaluant en f et en utilisant le théorème de Cayley-Hamilton (Théo-
rème 3.6) on trouve U (f )R(f ) = id et donc R(f ) est inversible. 

Comme pgcd(Q0 , Pf ) = 1 on déduit d’après le lemme que Q0 (f ) est inversible.


Lemme 4.68. Soit g : = f − Q(f )Q0 (f )−1 . Alors Pf = Pg .

Démonstration. L’endomorphisme Q(f )Q0 (f )−1 est nilpotent car Q(f ) l’est (voir
Lemme 4.66). De plus cet endomorphisme commute avec f et donc d’après Corol-
laire 4.54, g a le même polynôme caractéristique que f . 

Lemme 4.69. L’endomorphisme Q(f )Q0 (f )−1 est nilpotent.

Démonstration. En effet, Q(f ) est nilpotent et Q0 (f )−1 commute avec Q(f ) car
Q0 (f ) est un polynôme en f . Donc leur produit est nilpotent. 

Lemme 4.70. Soit g := f − Q(f )Q0 (f )−1 et soit λ une valeur propre de f . Alors
on a
ker(g − λid) = ker((f − λid)2 ).
Remarque 4.71. La morale du lemme est que des vecteurs propres généralisés pour
f deviennent des vecteurs propres honnêtes de f .

Démonstration. Soit v ∈ ker (f − λid)2 . Démontrons que gv = λv.
On pose w := (f − λid)v et on a f (v) = w + λv. D’après l’hypothèse sur v le vecteur
w est propre pour f avec valeur propre λ.
Comme λ est une valeur propre de f il existe R ∈ C[X] tel que Q(X) = R(X)(X −λ).
En dérivant on trouve Q0 (X) = R(X) + R0 (X)(X − λ).
En utilisant les formules que l’on vient de voir et le fait que T (f )w = T (λ)w pour
tout T ∈ C[X] on trouve Q0 (f )−1 w = Q0 (λ)−1 w = 1/R(λ)w et en conséquence
gv = w + λv − R(λ)/R(λ)w
= λv. 

Démonstration. (Théorème 4.63) On pose f0 := f et pour r ≥ 0


fr+1 := fr − Q(fr )Q0 (fr )−1 .
Ceci a bien un sens car le polynôme caractéristique de fr est égal a celui de f
(Lemme 4.68) et donc le Lemme 4.67 nous dit que Q0 (fr ) est bien inversible.
Le Lemme 4.70 nous dit que fr+1 a strictement plus de valeurs propres que fr et
comme on est dans un espace vectoriel de dimension fini, au plus tard au rang
r = dim(V ), on aura fr diagonalisable (car il admet une base de vecteurs propres).
Remarquez que d’après le Théorème 4.39 on a Q(fr ) = 0 si et seulement si fr
diagonalisable.
On fixe r = dim(V ) dorénavant. Le Lemme 4.66 appliqué successivement nous dit
que f − fr est nilpotent. De plus, par construction, fr est un polynôme en f .
On pose s = fr et n = f − fr . Comme s et n sont des polynômes en f , ils commutent.
Par construction on a f = s + d, s diagonalisable et n nilpotent.
Il nous reste a montrer l’unicité. Supposons que f = d0 +n0 avec les mêmes propriétés
que dans le théorème (d0 n0 = n0 d0 , d0 diagonalisable et n nilpotent).
Comme d et n sont des polynômes en f et que d0 n0 = n0 d0 on trouve que d0 et d
commutent et que n0 et n commutent. On a donc
d − d0 = n0 − n
et de plus d − d0 est diagonalisable et n0 − n est nilpotent (voir Théorème 4.49 et
Remarque 4.64). Un endomorphisme diagonalisable qui est nilpotent est forcément
nul, donc d = d0 et n = n0 et la preuve de l’unicité est terminée. 

4.9. Preuve alternative de Jordan–Chevalley. En utilisant un résultat sur


l’arithmétique des polynômes, à savoir le théorème chinois, on peut donner une
autre preuve, plus directe, de la décomposition de Jordan–Chevalley.
Théorème 4.72. (des restes Chinois) Soient P1 , . . . , Pr ∈ K[X] des polynômes
deux à deux premiers entre eux. Alors quelque soit R1 , . . . , Rr ∈ K[X] il existe un
polynôme P ∈ K[X] tel que
P ≡ Ri mod Pi , pour tout i.
Q
Démonstration. Pour chaque i = 1, . . . , r posons Qi = j6=i Pi . Par hypothèse on a
pgcd(Q1 , Q2 , . . . , Qr ) = 1. Du coup l’idéal engendré P
par Q1 , Q2 , . . . , Qr est égal à
K[X]. Il existe donc Ai ∈ K[X],i = 1, . . . , r, tels que i Ai Qi = 1.
P
Posons maintenant P := i Ri Ai Qi . En utilisant que Pk | Qi pour tout k 6= i (par
construction de Qi ) on vérifie que P convient. 
Corollaire 4.73. Soient λ1 , . . . , λr ∈ K distincts et a1 , . . . , ar ∈ N. Alors pour tout
i = 1, . . . , r il existe un polynôme Pi ∈ K[X] tel que Pj ≡ 0 mod (X − λj )aj si
j 6= i et Pi ≡ 1( mod (X − λi )ai ).

Nous sommes prêts a donner une autre preuve du théorème de décomposition de


Jordan–Chevalley
Théorème 4.74. Soit f ∈ L(V ) et supposons K = C. Alors il existe et ils sont
uniques s, n ∈ L(V ) tels que
(1) f = s + n,
(2) s diagonalisable et n nilpotent,
(3) sn = ns.
De plus, s et n sont des polynômes en f .

Démonstration. L’unicité se démontre comme avant (voir Théorème 4.63).


Montrons
Qr l’existence en exhibant un polynôme P tel que s = P (f ). Soit Pf =
ai
i=1 (X − λi ) la décomposition en facteurs irreductibles avec λi distincts. Pour
chaque i = 1, . . . , r il existe Pi comme dans le Corollaire 4.73.
Soit Vi l’espace caractéristique de f pour la valeur propre λi . Rappelons que
Vi = ker(f − λi id)ai .
D’après la définition de Vi on a que (f |Vi −λi idVi )ai . Les propriétés de congruences
des polynômes Pi impliquent Pi (f ) |VP j = 0 pour tout j =6 i et Pi (f ) |Vj = idVj . Donc
l’endomorphisme Pi (f ) est zero sur j6=i Vj et il est l’identité sur Vi .
P
Posons
P P := i λi Pi , c’est un polynôme dans K[X]. En posant s := P (f ) =
λ P
i i i (f ) on obtient ainsi un endomorphisme de V dont la restriction à chaque Vi
vaut λi idVi d’après le paragraphe précédent. En particulier, s est diagonalisable. De
plus, f − s est nilpotent car (f |Vi −λi idVi )ai = 0 pour chaque i.
On pose n := f − s et d’après la construction de s = P (f ) il est clair que f s = sf
et donc que ns = sn.
La décomposition voulue est f = s + n. 

5. Applications

5.1. Suites définies par récurrence.

5.2. Systèmes d’équations différentielles linéaires.

5.3. Algorithme PageRank de google.


Annexe A. Identités de Newton

Email address: fratila@math.unistra.fr