Vous êtes sur la page 1sur 73

1

UNIVERSITE CADI AYYAD


FACULTE DES SCIENCES SEMLALIA
DEPARTEMENT DE MATHEMATIQUES

Cours d’Algèbre IV
Filière SMA

Brahim Sadik
2
Cours d’algèbre IV
Filières SMA

Brahim SADIK
sadik@uca.ma
2020-2021
2

Préface
Ce cours est destiné aux étudiants de la filière Mathématiques. Il représente une intro-
duction à la théorie de réduction des endomorphismes et à la théorie spectrale.
Le premier chapitre est consacré à des rappels sur les propriétés des polynômes et des
espaces vectoriels. Dans le deuxième chapitre, on étudie les propriétés des polynômes
d’endomorphismes. Le lemme des noyaux, résultat essentiel de ce chapitre, est énoncé à
la fin avec des applications à la résolution des équations différentielles linéaires.
Le troisième chapitre est réservé à la caracérisation des endomorphismes qui se repré-
sentent dans des bases appropriées par des matrices diagonales. On donne les conditions
nécessaires et suffisantes pour qu’un endomorphisme soit diagonalisable. Dans le qua-
trième chapitre, on montre que tout endomorphisme scindé se représente par une matrice
réduite de Jordan. On donne des méthodes qui permettent de déterminer une réduite
de Jordan d’un endomorphisme donné. Le cinquième chapitre est une application de la
réduction des endomorphismes à la résolution des sytèmes différentiels linéaires.
Table des matières

1 Rappels 5
1.1 Anneau des polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Divisibilité dans l’anneau des polynômes . . . . . . . . . . . . . . . 5
1.1.2 Racines d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Somme de sous espaces vectoriels . . . . . . . . . . . . . . . . . . . 7
1.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Théorème de rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.3 Projections et symétries . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.4 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . 10

2 Polynômes d’endomorphismes 11
2.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Polynôme minimal d’un endomorphisme . . . . . . . . . . . . . . . . . . . 14
2.3 Idéal annulateur d’un vecteur . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Lemme des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3 Réduction d’endomorphismes diagonalisables 23


3.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.3 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . 35

4 Réduction des endomorphismes scindés 41


4.1 Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2 Décomposition de Dunford des endomorphismes scindés . . . . . . . . . . . 45
4.2.1 Sous-espaces caractéristiques et décomposition spectrale . . . . . . 46
4.2.2 Décomposition de Dunford . . . . . . . . . . . . . . . . . . . . . . . 47
4.3 Réduction de Jordan des endomorphismes scindés . . . . . . . . . . . . . . 50
4.3.1 Réduction de Jordan des endomorphismes nilpotents . . . . . . . . 51
4.3.2 Réduction de Jordan des endomorphismes scindés . . . . . . . . . . 56

3
4 TABLE DES MATIÈRES

5 Systèmes différentiels linéaires du premier ordre 63


5.1 Exponentielle d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2 Fonctions vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.3 Systèmes différentiels linéaires à coefficients constants . . . . . . . . . . . . 66
5.4 Equations différentielles scalaires d’ordre n . . . . . . . . . . . . . . . . . . 70
Chapitre 1

Rappels

1.1 Anneau des polynômes


Soit K un corps commutatif. Rappelons que l’ensemble des polynômes K[X] muni des
lois + et × est un anneau commutatif intègre. De plus c’est un espace vectoriel sur K et
pour tout entier n, le sous ensemble de K[X] formé des polynômes de degré inférieur ou
égal à n, que l’on note Kn [X] en est un sous espace vectoriel de dimension n + 1.

1.1.1 Divisibilité dans l’anneau des polynômes


L’anneau K[X] est un anneau euclidien. Pour deux polynômes A et B, avec B non
nul, il existe un unique couple de polynômes (Q, R) tels que A = BQ + R, avec deg(R) <
deg(B). Il en découle le résultat important suivant :

Proposition 1.1.1 L’anneau K[X] est principal ; c’est à dire, tout idéal I non nul de
K[X] est engendré par un unique polynôme unitaire.

Démonstration.
Soit I un idéal non nul de K[X] et soit P un polynôme unitaire de plus bas degré dans I.
Pour tout polynôme A de I, il existe deux polynômes Q et R de K[X] tels que A = P Q+R,
avec deg(R) < deg(P ). Comme R appartient à I, on a nécessairement R = 0 par minimi-
lalité du degré de P . Il s’ensuit que A = P Q. D’où I est un idéal principal engendré par P .
L’unicité est simplement dûe á la minimalié du degré et à la supposition d’être unitaire. ♣

Dans l’anneau K[X], on parle du plus grand diviseur commun et du plus petit mul-
tiple commun d’une famille finie de plynômes. En effet, le plus grand diviseur commun
d’une famille de polynômes P1 , . . . , Pr est l’unique polynôme unitaire qui engendre l’idéal
(P1 , . . . , Pr ) de K[X]. De même le plus petit multiple commun de P1 , . . . , Pr est l’unique
polynôme unitaire qui engendre l’idéal (P1 ) ∩ · · · ∩ (Pr ) de K[X].

5
6 CHAPITRE 1. RAPPELS

Théorème 1.1.1 (Identité de Bézout) Soit P1 , . . . , Pr des polynômes de K[X].


Si D est le plus grand diviseur commun des Pi alors il existe des polynômes A1 , . . . , Ar
tels que D = A1 P1 + · · · + Ar Pr .
S’il existe des polynômes A1 , . . . , Ar tels que 1 = A1 P1 + · · · + Ar Pr alors P1 , . . . , Pr sont
premiers entre eux.

Exemple 1.1.1 Dans R[X], les polynômes et A = X 3 + 2X + 1 et B = X 2 + 1 sont


premiers entre eux et on a
1 1
1 = − (X − 1)A + (X 2 − X + 1)B.
2 2

1.1.2 Racines d’un polynôme


Soit P un polynôme de C[X] et soit a une racine de P . On apelle multiplicité de a
le plus grand entier k vérifiant (X − a)k divise P et (X − a)k+1 ne le divise pas. On a le
critère important suivant :
Proposition 1.1.2 Soit P un polynôme de C[X] et soit a un nombre complexe. Alors
a est une racine de P de multiplicité m si et seulement si P (a) = P 0 (a) = · · · =
P (m−1) (a) = 0 et P (m) (a) 6= 0.

Remarque 1.1.1 Si P est un polynôme à coefficients réels et si a est une racine non
réelle de P alors son conjugué ā est aussi une racine de P , de même multiplicité que a.

Exemple 1.1.2 Considérons le polynôme X 6 + X 4 − X 2 − 1. On a P (i) = P 0 (i) = 0 et


P ”(i) 6= 0. Donc i est une racine de P de multiplicité 2. La remarque précédente assure
que −i = ī est aussi racine de P de multiplicité 2.

1.1.3 Polynômes irréductibles


Proposition 1.1.3 Les éléments inversibles de K[X] sont les constantes non nulles.

Deux polynômes A et B sont dits associés si l’un est multiple de l’autre à un élément
inversible près. Autrement dit, s’il existe une constante non nulle k telle que A = kB.
Définition 1.1.1 Un polynôme est irréductible s’il est de degré au moins 1 et s’il n’est
divisible que par 1, lui même et ses associés.

Exemple 1.1.3 Les polynômes irréductibles de C[X] sont les polynômes de degré 1 et les
polynômes irréductibles de R[X] sont les polynômes de degré 1 et les polynômes de degré
2 de discriminant strictement négatif.

Remarque 1.1.2 Un polynôme de K[X] de degré 2 ou 3 est non irréductible si, et seule-
ment s’il admet une racine dans K.
1.2. ESPACES VECTORIELS 7

Proposition 1.1.4 Tout polynôme non nul P de K[X] s’écrit d’une manière unique, à
un certain ordre près, sous la forme
P = aP1α1 . . . Prαr ,
avec a ∈ K, α1 , . . . , αr ∈ N et les Pi sont des polynômes irréductibles.

Remarque 1.1.3 Deux polynômes sont égaux si, et seulement s’ils ont même coefficient
dominant et l’un divise l’autre. Plus précisément, deux polynômes sont égaux s’ils ont le
même coefficient dominant et les mêmes diviseurs irréductibles avec les mêmes puissances.

1.2 Espaces vectoriels


1.2.1 Somme de sous espaces vectoriels
Dans la théorie des espaces vectoriels, la notion de somme de sous espaces vectoriels est
une notion très importante. Rappelons que si F1 , . . . , Fr sont des sous espaces vectoriels
d’un espace vectoriel E alors la somme de ces sous espaces est définie par
F1 + · · · + Fr = {x1 + · · · + xr ; x1 ∈ F1 , . . . , xr ∈ Fr }.
La somme est directe et on la note F1 ⊕ · · · ⊕ Fr si l’une des conditions équivalentes
suivantes est vérifiée.
P
1. ∀k ∈ {1, . . . , r}, Fk ∩ i6=k Fi = {0},
2. ∀k ∈ {2, . . . , r}, Fk ∩ k−1
P
i=1 Fi = {0},
3. ∀x ∈ F1 + · · · + Fr , ∃ !(x1 , . . . , xr ) ∈ F1 × · · · × Fr , x = x1 + · · · + xr ,
4. (0 = x1 + · · · + xr avec (x1 , . . . , xr ) ∈ F1 × · · · × Fr ) =⇒ x1 = · · · = xr = 0,
5. Pour toutes bases B1 , . . . , Br de F1 , . . . , Fr , B1 ∪· · ·∪Br est une base de F1 +· · ·+Fr ,
6. (lorsque les Fi sont de dimensions finies) dim(F1 + · · · + Fr ) = dim(F1 ) + · · · +
dim(Fr ).

Exemple 1.2.1
1. Soit F(R, R) le R-espace vectoriel des fonctions de R dans R. Si P(R, R) (respec-
tivement I(R, R)) est le sous espace vectoriel des fonctions paires (respectivement
impaires), alors

F(R, R) = P(R, R) ⊕ I(R, R).


En effet, soit f un élément de F(R, R) ; alors la fonction f1 définie par f1 (x) =
f (x)+f (−x)
2
est une fonction paire et la fonction f2 définie par f2 (x) = f (x)−f
2
(−x)
est
une fonction impaire. La relation
f (x) = f1 (x) + f2 (x) ∀ x ∈ R
8 CHAPITRE 1. RAPPELS

implique que
F(R, R) = P(R, R) + I(R, R).
Comme P(R, R) ∩ I(R, R) = {0} la somme est directe et les deux sous-espaces
vectoriels P(R, R) et I(R, R) sont supplémentaires.
2. Soit Mn (R) le R-espace vectoriel des matrices carrées d’ordre n à coefficients dans
R. Soit Sn (R) (respectivement An (R)) le sous espace vectoriel des matrices symé-
triques (respectivement antisymétriques). Alors

Mn (R) = Sn (R) ⊕ An (R).

1.3 Applications linéaires


1.3.1 Théorème de rang
Le théorème de rang donne une relation entre le rang d’une application linéaire et la
dimension de son noyau.

Théorème 1.3.1 (Théorème de rang)


Soient E et F deux espaces vectoriels de dimensions finies et soit u ∈ L(E, F ). Alors

dim(Keru) + rgu = dim(E).

Exemple 1.3.1 Soit u l’endomorphisme de R3 défini par :

u :  R3  −→  R3 
x x−y
 y  7→  z 
z 0

Soit B = (e1 , e2 , e3 ) la base canonique de R3 . On a Ker(u) = Vect {e1 + e2 }. Donc d’après


le théorème de rang, dim(Im(u)) = dim(R3 ) − dim(Ker(u)) = 2. Il est facile de voir que
Im(u) = Vect{e1 , e2 }. Par conséquent (e1 , e2 ) est une base de Im(u) car c’est une famille
génératrice minimale.

1.3.2 Changement de bases


Théorème 1.3.2 Soit E un K-espace vectoriel de dimension finie muni de deux bases B
et B 0 . Soit u un endomorphisme de E de matrice A dans la base B. Alors la matrice A0
de u dans la base B 0 est donnée par :

A0 = P −1 AP,

où P est la matrice de passage de B à B 0 .


1.3. APPLICATIONS LINÉAIRES 9

Exemple 1.3.2 Soit E = R2 [X] muni des deux bases B = (1, X, X 2 ) et B 0 = (1, X −
1, (X − 1)2 ). On considère l’endomorphisme u :

u : R2 [X] −→ R2 [X]
P (X) 7→ XP 0 (X)

La matrice de u relativement à la base B est


 
0 0 0
A =  0 1 0 .
0 0 2

De plus la matrice de passage de B à B 0 est


 
1 −1 1
P =  0 1 −2  .
0 0 1

D’où en en utilisant le théorème précédent, la matrice de u relativement à la base B 0 est


 
0 1 0
B = P −1 AP =  0 1 2  .
0 0 2

1.3.3 Projections et symétries


Soit E un espace vectoriel et soient F et G deux sous espaces vectoriels supplémen-
taires de E. On sait que tout x de E s’écrit d’une manière unique de la forme x1 + x2
où x1 ∈ F et x2 ∈ G. On appelle projection sur F parralléllement à G l’endomorphisme
de E qui à tout x lui associe x1 . On dit aussi projecteur. On appelle symétrie sur F
paralléllement à G l’endomorphisme qui à x lui associe x1 − x2 .

On a le théorème suivant qui caractérise les projections et les symétries :

Théorème 1.3.3 Un endomorphisme p de E est un projection si et seulement si p◦p = p.


Un endomorphisme s de E est une symétrie si et seulement si s ◦ s = IdE .

Remarques 1.3.1 1. Si p est la projection sur F parralléllement à G, alors

∀x ∈ F, p(x) = x et ∀x ∈ G, p(x) = 0.

2. Si de plus s est la symétrie sur F parralléllement à G, alors

s = 2p − IdE .
10 CHAPITRE 1. RAPPELS

Exemple 1.3.3 Soit Rn le R-espace vectoriel muni de sa base canonique (e1 , . . . , en ).


L’endomorphisme p défini par p(ei ) = e1 pour tout i ∈ {1, . . . , n} vérifie la propriété
p ◦ p = p. C’est une projection sur Imp = Vect{e1 } paralléllement à Kerp qui est égal à
l’hyperplan d’équation x1 + · · · + xn = 0.

Supposons que E = F1 ⊕· · ·⊕Fr . Pour tout x de E, il existe (x1 , . . . , xr ) ∈ F1 ×· · ·×Fr


unique tel que x = x1 + · · · + xr . On note pi l’endomorphisme de E qui à x associe xi .
On a les propriétés suivantes :
1. ∀i ∈ {1, . . . , r}, pi ◦ pi = pi ,
2. ∀(i, j) ∈ {1, . . . , r} × {1, . . . , r}, (i 6= j) =⇒ pi ◦ pj = 0),
3. IdE = p1 + · · · + pr .
On dit que (p1 , . . . , pr ) est la famille de projecteurs de E canoniquement associée à la
décomposition de E en somme directe E = F1 ⊕ · · · ⊕ Fr .

1.3.4 Résolution des systèmes linéaires


Soit A une matrice de Mp,q (K) avec p et q deux entiers positifs.

Proposition 1.3.1 L’ensemble des solutions du système linéaire AX = 0 est un sous


espace vectoriel F de Kq de dimension q − rgA.
Si C est une matrice échelonnée équivalente à A, la dimension de F est égale à q retranché
du nombre de pivots non nuls de C.

Exemple 1.3.4 Soit le système linéaire



 x + 2y + 3z = 0
S= 2x + y − z = 0
3x + 3y + 2z = 0

La matrice associée à ce système est


 
1 2 3
A =  2 1 −1  .
3 3 2

Il est facile de montrer qu’une matrice échelonnée associée à A est


 
1 2 3
C =  0 −3 −7  .
0 0 0

Donc l’espace des solutions du sytème S est de dimension 3 − 2 = 1.


Chapitre 2

Polynômes d’endomorphismes

Dans tout ce chapitre K désigne un corps commutatif et E est un espace vectoriel sur
K de dimension finie.

2.1 Définitions et propriétés


Dans cette section, nous introduisons la notion de polynômes d’endomorphismes qui
est une notion fondamentale dans la théorie de la réduction des endomorphismes. Soit
u ∈ L(E) et A ∈ Mn (K) où n est la dimension de E. On rappelle que u0 = IdE et que
A0 = In .

Définition 2.1.1 Soit P = a0 + a1 X + · · · + ar X r un polynôme. L’évaluation de P en u


est l’endomorphisme P (u) défini par

P (u) = a0 IdE + a1 u + · · · + ar ur

où uk = uk−1 ◦ u pour tout k ∈ N? .


De même l’évaluation de P esn A est la matrice P (A) donnée par

P (A) = a0 In + a1 A + · · · + ar Ar

où Ak = Ak−1 A pour tout k ∈ N? .

Exemples 2.1.1 1) On munit R2 de sa base canonique (e1 , e2 ) et on considère l’endo-


morphisme f de R2 défini par f (e1 ) = e1 +e2 et f (e2 ) = e1 −e2 . Déterminons P (f )
avec P = 2−X +X 2 . Pour cela on doit calculer f 2 . On a f 2 (e1 ) = f (e1 +e2 ) = 2e1
et f 2 (e2 ) = f (e1 − e2 ) = 2e2 . Donc P (f ) = 2IdR2 − f + f 2 est donné par :

P (f )(e1 ) = 2e1 −f (e1 )+f 2 (e1 ) = 3e1 −e2 P (f )(e2 ) = 2e2 −f (e2 )+f 2 (e2 ) = −e1+5e2 .

11
12 CHAPITRE 2. POLYNÔMES D’ENDOMORPHISMES

2) Soit la matrice réelle  


1 0 1
B =  0 1 1 .
1 1 0
Déterminons la matrice P (B) avec P = 1−2X 2 +X 3 . On a P (B) = I3 −2B 2 +B 3 .
On doit calculer les matrices B 2 et B 3 . On a :
 
2 1 1
B2 =  1 2 1 
1 1 2

et  
3 2 3
B3 =  2 3 3 .
3 3 2
 
0 0 2
Donc P (B) = I3 − 2B 2 + B 3 =  0 0 2 .
2 2 −1

On a la proposition suivante :

Proposition 2.1.1 Soient P et Q deux polynômes. Alors :


1. (P + Q)(u) = P (u) + Q(u) et (P Q)(u) = P (u) ◦ Q(u) = Q(u) ◦ P (u).
2. (P + Q)(A) = P (A) + Q(A) et (P Q)(A) = P (A)Q(A) = Q(A)P (A).
3. Relativement à une base de E, on a Mat(P (u)) = P (Mat(u)).
4. Si v est un isomorphisme de E, on a P (v −1 ◦ u ◦ v) = v −1 ◦ P (u) ◦ v.
5. P (tA) = tP (A).
6. Lorsque K = C, on a P (A) = P (A).

Démonstration. P
Supposons que P = rk=0 ak X k et Q = sj=0 bj X j .
P

1. La relation (P + Q)(u) = P (u) + Q(u) découle directement de la définition. Mon-


trons
Pr que = P (u) ◦ Q(u) = Q(u) ◦ P (u). On a (P Q)(X) = P (X)Q(X) =
Ps (P Q)(u)k+j
k=0 a b
j=0 k j X . Donc
Pr Ps
(P Q)(u) = uk+j
j=0 ak bjP
Pk=0
= ( rk=0 ak uk ) ◦ ( sj=0 bj uj )
= ( sj=0 bj uj ) ◦ ( rk=0 ak uk )
P P

= Q(u) ◦ P (u) = P (u) ◦ Q(u)

2. Ce point se montre comme précédement.


2.1. DÉFINITIONS ET PROPRIÉTÉS 13

3. Les relations Mat(v + w) = Mat(v) + Mat(w) et Mat(v ◦ w) = Mat(v)Mat(w) pour


deux endomorphismes v, w ∈ L(E) permettent de conclure.
4. Si X k est un monôme, alors par simple récurrence, on a (v −1 ◦ u ◦ v)k = v −1 ◦ uk ◦ v.
Le résultat pour un polynôme s’en déduit facilement.
5. Ce point découle des deux résultats t(A + B) = tA + tB et t(Ak ) = (tA)k pour toutes
matrices A et B et tout entier positif k.
6. Ce point découle des deux résultats (A + B) = A + B et Ak = (A)k . ♣

Remarque 2.1.1 Les deux premiers points de la dernière proposition montrent que l’ap-
plication
ϕ : K[X] → L(E)
P 7→ P (u)
est un homomorphisme d’anneaux de (K[X], +, ×) vers (L(E), +, ◦).

Exemple 2.1.1 Soit la matrice diagonale

λ1 0 · · · 0
 
.. .. .
 0
 . . .. 
D= . . .

 .. .. ... 0 
0 · · · 0 λn

Par une simple récurrence, on montre que pour tout k ∈ N, on a


 k
λ1 0 · · ·

0
... ... .. 
 0 . 

k
D = . . .
 .. .. ... 0 
0 ··· 0 λkn

Donc pour tout polynôme P ∈ K[X], on obtient :

···
 
P (λ1 ) 0 0
.. .. ..
 0
 . . .

P (D) =  .

.
.. . .. ...
 0 
0 ··· 0 P (λn )

Soit F un sous-espace vectoriel de E. Lorsque F est stable par u, (u(F ) ⊂ F ), la


restriction de u à F est un endomorphisme de F . On l’applelle endomorphisme induit par
u sur F et l’on note uF .
Proposition 2.1.2 Soit P un polynôme et F un sous-espace vectoriel de E.
1. Si F est stable par u, alors F est stable par P (u) et on a P (u)F = P (uF ).
14 CHAPITRE 2. POLYNÔMES D’ENDOMORPHISMES

2. Les sous-espaces vectoriels ImP (u) et KerP (u) sont stables par u.
Démonstration.

1. Supposons P (X) = a0 +a1 X +· · ·+ar X r . Soit x ∈ F . D’une part, on a P (u)(x) ∈ F


puisque u(x) appartient à F . Donc F est stable par P (u). D’autre part, on a

P (u)(x) = (a0 IdE + a1 u + · · · + ar ur )(x)


= a0 x + a1 u(x) + · · · + ar ur (x)
= a0 x + a1 uF (x) + · · · + ar urF (x)
= (a0 IdF + a1 uF + · · · + ar urF )(x)
= P (uF )(x)

D’où P (u)F = P (uF ).


2. Soit x ∈ KerP (u), alors P (u)(u(x)) = u(P (u)(x)) = 0. Donc KerP (u) est stable
par u. On montre d’une manière similaire que ImP (u) est stable par u. ♣

2.2 Polynôme minimal d’un endomorphisme


Soit u ∈ L(E) et soit P ∈ K[X]. On dit que u annule P ou que P est un polynôme
annulateur de u si l’endomorphisme P (u) est identiquement nul. On note P (u) = 0.
On a la proposition suivante :
Proposition 2.2.1 L’ensemble des polynômes annulateurs de u est un idéal de K[X] non
réduit à (0).
Démonstration.
Le premier point de la proposition 2.1.1 permettent de montrer que cet ensemble est un
2
idéal de K[X]. Puisque l’espace L(E) est de dimension n2 sur K, la famille (IdE , u, . . . , un )
est liée. Il existe alors des scalaires a0 , a1 , . . . , an2 dans K, non tous nuls, tels que
2
a0 IdE + a1 u + · · · + an2 un = 0.

Il s’ensuit que l’idéal annulateur de u contient le polynôme non nul


2
a0 + a1 X + · · · + an2 X n .

Ceci termine la preuve. ♣


puisque l’anneau K[X] est principal l’idéal de tous les polynômes annulateurs de u
est principal. Il est donc engendré par un unique polynôme unitaire. Ceci conduit à la
définition suivante :
Définition 2.2.1 On appelle idéal annulateur de u l’idéal des polynômes annulateurs
de u. L’unique polynôme unitaire qui engendre cet idéal, que l’on note Mu , s’appelle le
polynôme minimal de u.
2.2. POLYNÔME MINIMAL D’UN ENDOMORPHISME 15

De même un polynôme P ∈ K[X] est un polynôme annulateur d’une matrice A ∈


Mn (K) si la matrice P (A) est nulle. L’ensemble de tous les polynômes annulateurs de A
est un idéal de K[X] non réduit à (0), engendré par un unique polynôme unitaire que l’on
note MA et que l’on appelle polynôme minimal de A.

Remarque 2.2.1 Le polynôme minimal Mu de u est l’unique polynôme non nul et uni-
taire caractérisé par les deux propriétés suivantes :
1. Mu est unitaire,
2. ∀P ∈ K[X], Mu /P ⇐⇒ P (u) = 0.

La proposition suivante montre que le polynôme minimal de u ne dépend pas de la


base dans laquelle il est représenté.

Proposition 2.2.2 Si A est la matrice de u dans une base B de E, le polynôme minimal


de A est égal à celui de u.

Démonstration.
La relation MatB P (u) = P (A) montre que u et A ont le même idéal annulateur. Ils ont
donc le même polynôme minimal. ♣

Remarques 2.2.1 1. Si v est un isomorphisme de E, les endomorphismes v −1 ◦ u ◦ v


et u ont le même polynôme minimal.
2. Soit A ∈ Mn (K), alors A et t A ont le même polynôme minimal.
3. Soit A ∈ Mn (C), alors A et A ont des polynômes minimaux conjugués.

Exemples 2.2.1 1. Le polynôme minimal de l’endomorphisme nul est le monôme X.


Le polynôme minimal de l’homothétie λIdE est le polynôme X − λ.
2. Soit F et G deux sous-espaces supplémentaires de E. Le polynôme minimal de la
projection sur F paralléllement à G est le polynôme X 2 − X. Le polynôme minimal
de la symétrie par rapport à F paralléllement à G est le polynôme X 2 − 1.
3. Le polynôme minimal d’un endomorphisme nilpotent d’indice de nilpotence r est le
monôme X r .

La proposition suivante relie le polynôme minimal de u à celui d’un endomorphisme induit


par u sur un sous-espace stable par u.

Proposition 2.2.3 Soit F un sous-espace vectoriel de E stable par u. Le polynôme mi-


nimal de uF divise celui de u.

Démonstration.
La relation P (uF ) = P (u)F pour tout P ∈ K[X], montre que l’idéal annulateur de u est
contenu dans celui de uF . Il s’ensuit que Mu (uF ) = 0 et que MuF divise Mu . ♣
16 CHAPITRE 2. POLYNÔMES D’ENDOMORPHISMES

Exemple 2.2.1 Soit F et G deux sous-espaces supplémentaires de E. L’endomorphisme


induit par la projection sur F paralléllement à G est l’identité de F . Son polynôme minimal
est X − 1 qui est un diviseur de X 2 − X.

Exercice 2.2.1 Soit n ≥ 2 un entier et J la matrice de Mn (R) donnée par


 
0 1 ··· 1
 1 0 ··· 1 
J =  .. . . . . .
 
 . . . 1 
1 ··· 1 0

1. Calculer MJ (X).
2. Calculer J k pour tout k ∈ N.

2.3 Idéal annulateur d’un vecteur


Soit u un endomorphisme de E fixé. L’entier n désigne la dimension de E.
Définition 2.3.1 Soit x ∈ E. On appelle idéal u-annulateur de x l’idéal des polynômes
P de K[X] vérifiant P (u)(x) = 0.

Proposition 2.3.1 Soit x ∈ E, alors il existe un unique polynôme non nul unitaire
engendrant l’idéal u-annulateur de x.

Démonstration.
Puisque la famille (x, u(x), . . . , un (x)) est liée, il existe a0 , a1 , . . . , an ∈ K non tous nuls
tels que
a0 x + a1 u(x) + · · · + an un (x) = 0.
Il s’ensuit que le polynôme non nul a0 +a1 X +· · ·+an X n appartient à l’idéal u-annulateur
de x. Comme K[X] est principal, cet idéal est principal et il existe un unique polynôme
unitaire non nul qui l’engendre. ♣
Définition 2.3.2 On appelle polynôme u-minimal de x, et l’on note Mux , le polynôme
non nul unitaire qui engendre l’idéal u-annulateur de x.
Soit x ∈ E et Ex le sous-espace vectoriel
K[u](x) = {P (u)(x), P ∈ K[X]} = Vect{uk (x), k ∈ N}.
On a la proposition suivante :
Proposition 2.3.2 Si p est le degré du polynôme u-minimal de x, alors la famille
(x, u(x), . . . , up−1 (x))
forme une base de Ex .
2.3. IDÉAL ANNULATEUR D’UN VECTEUR 17

Démonstration.
La minimalité de Mux montre que la famille (x, u(x), . . . , up−1 (x)) est libre. Montrons
qu’elle engendre Ex . Soit P ∈ K[X]. La division euclidienne de P par Mux donne une
relation de la forme P (u)(x) = R(u)(x), avec R un polynôme de degré strictement infé-
rieur à p. Il s’ensuit que P (u)(x) est une combinaison linéaire des éléments de la famille
(x, u(x), . . . , up−1 (x)). D’où le résultat. ♣
Exemple 2.3.1 Soit F et G deux sous-espaces supplémentaires non triviaux de E. Soit
π la projection sur F paralléllement à G. Si 0 6= x ∈ F , alors Mπx = X − 1. Si x ∈ G,
alors Mπx = X.
Exercice 2.3.1 Soit x ∈ E.
1. Montrer que Mux = MuEx .
2. En déduire que le polynôme u-minimal de x divise le polynôme minimal de u.
Définition 2.3.3 On dit que E est u-monogène engendré par un vecteur x de E si E =
Ex .
Lorsque E est u-monogène engendré par un vecteur x, le degré de Mux est égal à n et
la famille (x, u(x), . . . , un−1 (x)) est une base de E.
DéfinitionP2.3.4 On appelle matrice compagnon d’un polynôme unitaire de degré n :
P = X n + n−1 k
k=0 ak X , et l’on note CP , la matrice
 
0 0 ··· ··· 0 −a0
...
 1 0 0 −a1
 

 0 1 ...
 .. .. 
CP =  . . 
.
 . . .. ..
 .. . . . . . . . .

 . . 

 0 ··· 1 0 −an−2 
0 ··· ··· 0 1 −an−1
Exemple 2.3.2 La matrice compagnon du polynôme P (X) = 2 + X − 3X 2 + X 3 est
 
0 0 −2
CP =  1 0 −1  .
0 1 3
Proposition 2.3.3 Si E est u-monogène engendré par x, alors la matrice de u dans la
base B = (x, u(x), . . . , un−1 (x)) est la matrice compagnon de Mux .
Démonstration.
Si Mux = X n + n−1 k n n−1
P
k=0 ak X , alors u (x) = −a0 x − a1 u(x) − · · · − an−1 u (x). Comme
k−1 k
u(u (x)) = u (x) pour tout k ∈ {1, . . . , n − 1}, la matrice de u dans B est égale à la
matrice compagnon de Mux . ♣
Le résultat suivant montre la réciproque de la proposition précédente.
18 CHAPITRE 2. POLYNÔMES D’ENDOMORPHISMES

Proposition 2.3.4 Si la matrice de u dans une base B = (e1 , . . . , en ) de E est la matrice


compagnon CP d’un polynôme P , alors :
1. E est u-monogène engendré par e1 .
2. Mue1 = P .

Démonstration.

1. La relation ek = uk−1 (e1 ) pour k ∈ {1, . . . , n} montre que E est u-monogène


engendré par e1 et que B = (e1 , u(e1 ), . . . , un−1 (e1 )).
2. Puisque la matrice de u dans B est CMue1 = CP il vient P = Mue1 . ♣

Proposition 2.3.5 Soit B = (e1 , . . . , en ) une base de E. Si la matrice de u dans B est


la matrice compagnon d’un polynôme unitaire P , alors Mu = P .

Démonstration.
La proposition précédente montre que E est u-monogène engendré par e1 et que P = Mue1 .
Il vient P (u)(ei ) = 0 pour tout i ∈ {1, . . . , n} et par conséquent P (u)(x) = 0 pour tout
x ∈ E. Il s’ensuit que P (u) = 0 et donc Mu divise P . Mais P , qui est le polynôme
u-minimal de e1 , divise Mu . Ceci permet de conclure que P = Mu . ♣

Exemple 2.3.3 On munit K3 de sa base canonique (e1 , e2 , e3 ) et on considère l’endomor-


phisme f de K3 donné par

f (e1 ) = e2 , f (e2 ) = e3 , f (e3 ) = 0.

1. La famille (e1 , f (e1 ), f 2 (e1 )) forme une base de K3 , donc K3 est f -monogène en-
gendré par e1 .
2. La matrice de f dans la base canonique est
 
0 0 0
 1 0 0 .
0 1 0

C’est la matrice compagnon du polynôme X 3 . On en déduit que le polynôme mini-


mal de f est le monôme X 3 .

2.4 Lemme des noyaux


Soit u ∈ L(E). Le résultat suivant est très utile en algèbre linéaire. Il sert aussi à
résoudre les équations différentielles linéaires à coefficients constants.
2.4. LEMME DES NOYAUX 19

Théorème 2.4.1 (Lemme des noyaux)


Soit P1 , . . . , Pr des polynômes de K[X] premiers entre eux deux à deux et soit P =
P1 · · · Pr . On a
Ker(P (u)) = Ker(P1 (u)) ⊕ · · · ⊕ Ker((Pr (u)).
Démonstration.
Il est claire que Ker((Pi (u)) ⊂ Ker(P (u)) pour tout i ∈ {1, . . . , r}. Donc

Ker(P1 (u)) + · · · + Ker((Pr (u)) ⊂ Ker(P (u)).


Q
Montrons alors l’autre inclusion. Pour i ∈ {1, . . . , r}, soit Qi = j6=i Pj . Alors les po-
lynômes Qi sont premiers entre eux dans leur ensemble. Supposons le contraire et soit
D un diviseur commun des Qi . Sans perte de généralité, on peut supposer que D est
irréductible. Puisque D divise Q1 il existe i1 6= 1 tel que D divise Pi1 . Mais D divise Qi1 ,
donc il existe i2 6= i1 tel que D divise Pi2 . Ceci contredit l’hypothèse que Pi1 et Pi2 sont
premiers entre eux.
Par l’identité de Bézout, il existe des polynômes A1 , . . . , Ar tels que

1 = A1 Q1 + · · · + Ar Qr .

Evaluons les deux membres de cette équation en u on obtient

IdE = (A1 Q1 )(u) + · · · + (Ar Qr )(u).

Il s’ensuit que

∀x ∈ Ker(P (u)), x = (A1 Q1 )(u)(x) + · · · + (Ar Qr )(u)(x).

Puisque pour tout i dans {1, . . . , r}, Pi (u)((Ai Qi )(u)(x)) = (Ai Pi Qi (u))(x) = Ai (u) ◦
P (u)(x) = 0, on obtient x ∈ Ker(P1 (u)) + · · · + Ker((Pr (u)).
Il reste à montrer que la somme Ker(P1 (u)) + · · · + Ker((Pr (u)) est directe. Soit k ∈
{2, . . . , r} et soit x ∈ Ker(Pk (u)) ∩ ((Ker(P1 (u)) + · · · + Ker((Pk−1 (u))). On a alors x =
x1 + · · · + xk−1 avec Pk (u)(x) = 0 et Pi (u)(xi ) = 0 pour i dans {1, . . . , k − 1}. Puisque
les Pi sont premiers entre eux deux à deux, les deux polynômes Pk et P1 · · · Pk−1 sont
premiers entre eux. Il existe alors deux polynômes A et B tels que

1 = APk + BP1 · · · Pk−1 .

En évaluant les deux membres de cette relation en u, on aura

IdE = (Ak Pk )(u) + (BP1 · · · Pk−1 )(u).

Donc
x = (Ak Pk )(u)(x) + (BP1 · · · Pk−1 )(u)(x)
= Ak (u) ◦ Pk (u)(x) + k−1
P
i=0 (BP1 · · · Pk−1 )(u)(xi )
= 0.
20 CHAPITRE 2. POLYNÔMES D’ENDOMORPHISMES

D’où la somme est directe et on a :

Ker(P (u)) = Ker(P1 (u)) ⊕ · · · ⊕ Ker((Pr (u)).

Remarques 2.4.1 1. On peut montrer le lemme des noyaux par récurrence sur le
nombre de polynômes Pi .
2. Le lemme des noyaux reste vrai pour les espaces vectoriels de dimension infinie.

Corollaire 2.4.1 Soit P1 , . . . , Pr des polynômes de K[X] premiers entre eux deux à deux
et soit P = P1 · · · Pr . Si P est un polynôme annulateur de u alors on a :

E = Ker(P1 (u)) ⊕ · · · ⊕ Ker((Pr (u)).

Corollaire 2.4.2 Soit P1 , . . . , Pr des polynômes de K[X] premiers entre eux deux à deux
et soit P = P1 · · · Pr . Si P est un polynôme annulateur
P de u alors pour tout i ∈ {1, . . . , r},
la projection sur Ker(Pi (u)) paralléllement à k6=i Ker(Pk (u)) est un polynômle en u.

Démonstration.
On reprend les notations de la démonstration du dernier théorème. Puisque

E = Ker(P1 (u)) ⊕ · · · ⊕ Ker((Pr (u))

on a
∀x ∈ E, x = (A1 Q1 )(u)(x) + · · · + (Ar Qr )(u)(x),
avec (Ai Qi )(u)(x)P∈ Ker(Pi (u)) pour i ∈ {1, . . . , r}. Si πi est la projection sur Ker(Pi (u))
paralléllement à k6=i Ker(Pk (u)), alors πi (x) = (Ai Qi )(u)(x) pour tout x ∈ E. D’où
πi = (Ai Qi )(u) est un polynôme en u. ♣

Exemples 2.4.1 1. Soit F et G deux sous-espaces supplémentaires de E. Soit p la


projection sur F paralléllement à G. Nous avons vu que Mp (X) = X 2 − X =
X(X − 1). En appliquant le lemme des noyaux, on obtient :

E = Ker(p2 − p) = Ker(p − IdE ) ⊕ Ker(p) = F ⊕ G.

2. Soit la matrice de M2 (R) :  


2 1
A= .
3 4
Soit uA l’endomorphisme canoniquement associé à A. Calculons Ker(u3A − IdR3 ).
D’après le lemme des noyaux, on a Ker(u3A − IdR3 ) = Ker(uA − IdR2 ) ⊕ Ker(u2A +
uA + IdR2 ). Comme Ker(uA − IdR2 ) = Vect{e1 − e2 } et Ker(u2A + uA + IdR2 ) = {0}
il vient Ker(u3A − IdR3 ) = Vect{e1 − e2 }.
2.4. LEMME DES NOYAUX 21

3. On munit R3 de sa base canonique (e1 , e2 , e3 ) et on considère l’endomorphisme f


de R3 donné par :

f (e1 ) = 2e1 , f (e2 ) = e1 + 2e2 , f (e3 ) = −e1 + e2 + e3 .

On voit facilement que (f − 2IdR3 )2 (f − IdR3 ) = 0. En faisant des calculs simples,


on obtient Ker((f − 2IdR3 )2 ) = Vect{e1 , e2 } et Ker(f − IdR3 ) = Vect{2e1 − e2 + e3 }.
En appliquant le lemme des noyaux, on aura :

R3 = Ker((f − 2IdR3 )2 ) ⊕ Ker(f − IdR3 )


= Vect{e1 , e2 } ⊕ Vect{2e1 − e2 + e3 }.

4. Soit à résoudre l’équation différentielle linéaire y”+y = 0. On cherche les solutions


dans C ∞ (R, C) l’espaces des fonctions de classe C ∞ de R dans C.
En considérant l’endomorphisme

D : C ∞ (R, C) C ∞ (R, C)
f 7→ f0

l’équation différentielle en question devient P (D)(y) = 0 où P est le polynôme

X 2 + 1 = (X − i)(X + i).

Le lemme des noyaux permet d’obtenir l’ensemble des solutions Ker(P (D)) :

Ker(P (D)) = Ker(D − iId) ⊕ Ker(D + iId)


= {y ∈ C ∞ (R, C) : D(y) − iy = 0} ⊕ {y ∈ C ∞ (R, C) : D(y) + iy = 0}
= {αeit : α ∈ C} ⊕ {βe−it : β ∈ C}
= {αeit + βe−it : α, β ∈ C}.
22 CHAPITRE 2. POLYNÔMES D’ENDOMORPHISMES
Chapitre 3

Réduction d’endomorphismes
diagonalisables

Les notions que nous développons dans ce chapitre pour les endomorphismes s’ap-
pliquent d’une manière naturelle aux matrices en considérant les endomorphismes cano-
niquement associés.
On rappelle que K désigne un corps commutatif, E est un espace vectoriel sur K de
dimension finie et u est un endomorphisme de E.

3.1 Valeurs propres et vecteurs propres


Définition 3.1.1 On dit qu’un scalaire λ ∈ K est une valeur propre de u s’il existe un
vecteur non nul x de E tel que u(x) = λx. Dans ce cas, le vecteur x s’appelle un vecteur
propre de u associé à la valeur propre λ.
Remarque 3.1.1 Un scalaire λ est une valeur propre de u si et seulement si l’endomor-
phisme u − λIdE n’est pas injectif, ce qui revient au même, si et seulement si u − λIdE
n’est pas bijectif. En partculier, le scalaire 0 est une valeur propre de tout endomorphisme
non injectif.
Exemples 3.1.1 1. Soit l’endomorphisme f de R3 [X] donné par f (P ) = P 0 . Pour
toute constante c ∈ R, on a u(c) = c0 = 0. Donc 0 est une valeur propre de f et
toute constante non nulle en est un vecteur propre associé à la valeur propre 0.
2. Soient F et G deux sous espaces non nuls de E tels que E = F ⊕ G. Soit p la
projection sur F paralléllement à G. On a ∀x ∈ F, p(x) = x, donc 1 est une
valeur propre de p et tout vecteur non nul de F en est un vecteur propore associé.
3. On munit C3 de sa base canonique (e1 , e2 , e3 ) et on considère la matrice de M3 (C) :
 
i 1 0
A =  −i i 0  .
−i i i

23
24 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Si uA est l’endomorphisme canoniquement associé à A, alors uA (e3 ) = ie3 . Donc i


est une valeur propre de A et e3 en est un vecteur propre associé.

Définition 3.1.2 On appelle sous-espace propre de u associé à la valeur propre λ, le


sous-espace vectoriel de E :
Eλ (u) = Ker(u − λIdE ).

Lorsqu’il n’y a pas de confusion, on note Eλ (u) seulement Eλ . Un vecteur non nul x ne
peut pas être un vecteur propre associé à deux valeurs propres distinctes. Autrement dit,
si λ et µ sont deux valeurs propres distinctes alors Eλ ∩ Eµ = {0}.
Le résultat suivant montre que deux endomorphismes conjugués, donc deux matrices
semblables, ont les mêmes valeurs propres :

Proposition 3.1.1 Pour tout isomorphisme v de E, les endomorphismes v −1 ◦ u ◦ v et


u ont les mêmes valeurs propres.

Démonstration.
Soit λ une valeur propre de u et soit x un vecteur propre associé. La relation v −1 ◦ u ◦
v(v −1 (x)) = λv −1 (x) montre que λ est une valeur propre de v −1 ◦ u ◦ v puisque v −1 (x) est
un vecteur non nul. La réciproque est évidente. ♣

Remarque 3.1.2 On vient de montrer que si x est un vecteur propre de u, alors v −1 (x)
est un vecteur propre de v −1 ◦ u ◦ v. Les sous espaces propres de u et de v −1 ◦ u ◦ v sont
liés par la relation suivante :

v −1 (Eλ (u)) = Eλ (v −1 ◦ u ◦ v).

Définition 3.1.3 On appelle spectre de u, et l’on note Sp(u), l’ensemble des valeurs
propres de u.

La proposition suivante relie les valeurs propres de u et les polynômes annulateurs de


u.

Proposition 3.1.2 1. Soit x un vecteur propre de u associé à une valeur propre λ,


alors pour tout polynôme P , on a :

P (u)(x) = P (λ)x.

C’est à dire, P (λ) est une valeur propre de P (u).


2. Si P est un polynôme annulateur de u, on a P (λ) = 0 pour toute valeur propre λ
de u.

Démonstration.
3.1. VALEURS PROPRES ET VECTEURS PROPRES 25
Pr
1. Soit P = k=0 ak X k ∈ K[X]. Pour tout k ∈ N, on a uk (x) = λk x. Donc

( rk=0 ak uk )(x)
P
P (u)(x) = P
= Prk=0 ak uk (x)
= Prk=0 ak λk x
= ( rk=0 ak λk )x
= P (λ)x.

2. La relation P (u)(x) = P (λ)x montre que P (λ)x = 0 et comme x est non nul, il
vient P (λ) = 0.

Le théorème suivant donne une caractérisation des valeurs propres de u.
Théorème 3.1.1 Les valeurs propres de u sont les racines dans K de son polynôme
minimal.
Démonstration.
Soit Mu le polynôme minimal de u. La proposition précédente montre que toute valeur
propre de u est une racine de Mu . Montrons la réciproque. Supposons que λ ∈ K est
une racine de Mu sans qu’elle soit une valeur propre de u. Le polynôme Mu s’écrit alors
Mu = (X − λ)N avec N ∈ K[X]. Evaluons les deux membres de l’équation en u, on
obtient
(u − λIdE ) ◦ N (u) = Mu (u) = 0.
Comme λ n’est pas une valeur propre de u, l’endomorphisme u − λIdE est inversible. Il
s’ensuit que N (u) = 0, ce qui contredit la minimalité de Mu . ♣
Exemples 3.1.2 1. Puisque le polynôme minimal d’un projecteur est X 2 − X, alors
les valeurs propres d’un projecteur sont 0 et 1.
 
1 2
2. Soit A = . On a MA (X) = (X − 1)(X − 5), donc les valeurs propres de
0 5
A sont 1 et 5.
3. Soit u un endomorphisme nilpotent d’indice de nilpotence r. Le polynôme minimal
de u est X r , donc Sp(u) = {0}. On remarque alors que deux endomorphismes
peuvent avoir le même spectre sans être conjugués.
Le résultat suivant sera très utile dans la suite :
Proposition 3.1.3 Soit λ une valeur propre de u, alors Eλ est stable par tout endomor-
phisme qui commute avec u.
Démonstration.
Soit v ∈ L(E) commuttant avec u et soit x ∈ Eλ . La relation u(v(x)) = v(u(x)) =
v(λx) = λv(x) permet de conclure. ♣
Une application du lemme des noyaux (théorème 2.4.1) est le résultat suivant :
26 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Théorème 3.1.2 Soit λ1 , . . . , λp des valeurs propres de u distinctes deux à deux. Alors
la somme Eλ1 + · · · + Eλp est directe.
Démonstration.
Il suffit de remarquer que les polynômes X − λk pour k ∈ {1, . . . , p} sont premiers entre
eux deux à deux puis appliquer le lemme des noyaux pour conclure. ♣

Corollaire 3.1.1 La réunion de familles de vecteurs propres associés à des valeurs propres
distinctes deux à deux est libre.

Corollaire 3.1.2 Le nombre de valeurs propres de u est inférieur ou égal à la dimension


de E.

Remarques 3.1.1 1. Un endomorphisme nilpotent admet une seule valeur propre


qui est le scalaire 0.
2. Une matrice diagonale de Mn (K) à éléments diagonaux distincts deux à deux admet
n valeurs propres disctinctes deux à deux.

3.2 Polynôme caractéristique


Dans cette section nous introduisons la notion de polynôme caractéristique d’un endo-
morphisme ou d’une matrice. Ce polynôme nous donne un moyen pratique pour le calcul
des valeurs propres.
Soit u ∈ L(E) et soit n la dimension de E.
Proposition 3.2.1 Soit A ∈ Mn (K). Le déterminant de la matrice XIn − A est un
polynôme en X, unitaire et de degré n. De plus, ce polynôme a la forme suivante :

χA (X) = X n − tr(A)X n−1 + · · · + (−1)n detA.

Démonstration.
Il est clair que det(XIn − A) est un polynôme de K[X].
Supposons que A = (ai,j )1≤i,j≤n et montrons la deuxième assertion par récurrence sur n.
Elle est évidente pour n = 1. Supposons la vraie pour les matrices d’ordre inférieur ou
égal à n − 1 et montrons la pour les matrices d’ordre n. En développant ce déterminant
suivant la première colonne, on obtient :

det(XIn − A) = (X − a11 )det(XIn−1 − A11 ) + Q(X),

où A11 est la sous-matrice de A obtenue en supprimant la première ligne et la première


colonne de A et Q(X) est un polynôme de degré inférieur ou égal à n − 2. Par hypothèse
de récurrence il vient :
χA (X) = (X − a11 )(X n−1 − (a22 + · · · + ann )X n−2 + · · · + (−1)n−1 detA11 ) + Q(X)
= X n − (a11 + a22 + · · · + ann )X n−1 + Q0 (X)
3.2. POLYNÔME CARACTÉRISTIQUE 27

où Q0 (X) est un polynôme de dgré inférieur ou égal à n − 2. Donc les termes de degrés n
et n − 1 sont X n et −tr(A)X n−1 . On obtient le terme constant de χA (X) en l’évaluant à
0 : χA (0) = det(−A) = (−1)n det(A). ♣

Définition 3.2.1 Soit A ∈ Mn (K). Le polynôme det(XIn − A), que l’on note χA (X),
s’appelle le polynôme caractéristique de A.

Remarque 3.2.1 Certains auteurs définissent le polynôme caractéristique d’une matrice


A comme étant le déterminant de la matrice A − XIn . On note que les deux polynômes
ont les mêmes racines puisque det(XIn − A) = (−1)n det(A − XIn ) et par conséquent, ils
réalisent les mêmes propriétés concernant la matrice A.

Exemples 3.2.1 1. Soit la matrice A de M3 (R) :


 
1 −2 −1
A=  3 −1 −4  .
0 −5 3

Le polynôme caractéristique de A est :

χA (X) = det(XI3 − A)
X −1 2 1
= −3 X +1 4
0 5 X −3
X +2 2 1
= X +2 X +1 4
X +2 5 X −3
1 2 1
= (X + 2) 1 X + 1 4
1 5 X −3
1 2 1
= (X + 2) 0 X − 1 3
0 3 X −4
= (X + 2)(X 2 − 5X − 5).

2. Soit la matrice B de M4 (C) :


 
i 0 1 −i
 1 0 −i i 
B= .
 0 1 i −i 
−i i 0 1
28 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Le polynôme caractéristique de B est :

χB (X) = det(XI4 − B)
X −i 0 −1 i
−1 X i −i
=
0 −1 X − i i
i −i 0 X −1
X −1 0 −1 i
X −1 X i −i
=
X − 1 −1 X − i i
X − 1 −i 0 X −1
1 0 −1 i
1 X i −i
= (X − 1)
1 −1 X − i i
1 −i 0 X −1
1 0 −1 i
0 X i+1 −2i
= (X − 1)
0 −1 X − i + 1 0
0 −i 1 X −i−1
X i+1 −2i
= (X − 1) −1 X − i + 1 0
−i 1 X −i−1
= (X − 1)(X − 2i)(X 2 + i + 1).

Remarques 3.2.1 1. Le polynôme caractéristique de la matrice (a) ∈ M1 (K) est


X − a.
 
a b
2. Le polynôme caractéristique de la matrice ∈ M2 (K) est le polynôme
c d
2
(X − a)(X − d) − bc = X − (a + d)X + ad − bc.
3. χt A (X) = χA (X) pour toute matrice A ∈ Mn (K).
4. χA (X) = χA (X) pour toute matrice A ∈ Mn (C).
5. Le polynôme caractéristique Qn d’une matrice triangulaire supérieure d’éléments dia-
gonaux a11 , . . . , ann est i=1 (X − aii ).
6. Le polynôme caractéristique de la matrice scalaire λIn est (X − λ)n .

La proposition suivante permet de définir le polynôme caractéristique d’un endomor-


phisme de E.

Proposition 3.2.2 Deux matrices semblables ont le même polynôme caractéristique.


3.2. POLYNÔME CARACTÉRISTIQUE 29

Démonstration.
Soit A, P ∈ Mn (K) avec P inversible. La relation

det(XIn − P−1 AP) = det(P−1 (XIn − A)P) = det(XIn − A)

donne le résultat. ♣
On peut maintenant définir le polynôme caractéristique d’un endomorphisme.

Définition 3.2.2 Le polynôme caractéristique de u, que l’on note χu (X), est le polynôme
caractéristique de toute matrice représentant u.

Le théorème suivant donne un outil pratique pour le calcul des valeurs propres.

Théorème 3.2.1 Un scalaire λ ∈ K est une valeur propre de u si et seulement si c’est


une racine de χu (X).

Démonstration.
Le scalire λ est une valeur propre de u si et seulement si u − λIdE n’est pas inversible, ce
qui revient au même, si et seulement si χu (λ) = det(u − λIdE ) = 0. ♣

Exemples 3.2.2 1. Les valeurs propres d’une matrice triangulaire T sont les élé-
ments diagonaux de T .
2. Soit A la matrice de M3 (R) :
 
1 1 1
A =  −1 −2 −1  .
−1 1 −1

Le polynôme caractéristique de A est χA (X) = X(X 2 + 2X + 2). La matrice A


admet une valeur propre réelle, 0, et deux valeurs propres cpmplexes conjuguées
−1 + i et −1 − i.

Corollaire 3.2.1 1. Un endomorphisme de E a au plus n valeurs propres distinctes.


2. Si K = R et si n est impair, alors u a au moins une valeur propre.
3. Si K = C, alors u a au moins une valeur propre.

La proposition suivante relie le polynôme caractéristique de u et celui de l’endomorphisme


induit par u sur un sous espace stable par u.

Proposition 3.2.3 Si F est un sous-espace vectoriel de E stable par u, on a χuF divise


χu .
30 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Démonstration.
Soit B = (e1 , . . . , ep , . . . , en ) une  E, où (e1 , . . . , ep ) est une base de F . La matrice
 base de
A B
de u dans B est de la forme où A est la matrice de uF dans (e1 , . . . , ep ). Le
0 D
polynôme caractéristique de u est

XIp − A −B
= det(XIp − A)det(XIn−p − D).
0 XIn−p − D

Ce qui montre que χuF divise χu . ♣

Exemple 3.2.1 On munit R3 de sa base canonique B = (e1 , e2 , e3 ) et on considère l’en-


domorphisme f donné par

f (e1 ) = 2e2 − e3 , f (e2 ) = e1 + e3 , f (e3 ) = e1 + 2e2 .

Le polynôme caractéristique de f est égal au polynôme X 3 − 3X. Calculons le polynôme


caractéristique de l’endomorphisme induit par f sur Im(f ). On a Im(f ) = Vect{v1 , v2 }
avec v1 = f (e1 ) et v2 = f (e2 ). Puisque f (v1 ) = −v1 + v2 et f (v2 ) = 2v1 + v2 , alors la
matrice de l’endomorphisme induit par f sur Im(f ) est
 
−1 2
.
1 1

Son polynôme caractéristique est égal au polynôme X 2 − 3 qui est bien un diviseur de
X 3 − 3X.

Définition 3.2.3 On appelle multiplicité d’une valeur propre λ de u, et l’on note m(λ),
sa multiplicité en tant que racine du polynôme caractéristique de u.

Comme corollaire de la proposition précédente, on obtient :

Corollaire 3.2.2 Pour tout λ ∈ Sp(u), on a 1 ≤ dim(Eλ ) ≤ m(λ).

Démonstration.
Soit n(λ) la dimension de Eλ . Il est clair que 1 ≤ n(λ). L’endomorphisme u1 induit par u
sur Eλ coincide avec l’homothétie λIdEλ . Son polynôme caractéristique vaut (X − λ)n(λ) .
Comme il divise χu (X) on obtient l’autre inégalité n(λ) ≤ m(λ). ♣

Remarque 3.2.2 Si λ est une valeur propre de multiplicité 1, alors le sous espace propre
Eλ est de dimension 1.

Proposition 3.2.4 Le polynôme caractéristique de la matrice compagnon d’un polynôme


unitaire P de K[X] est égal à P .
3.2. POLYNÔME CARACTÉRISTIQUE 31

Démonstration.
A faire en exercice. ♣
Nous énonçons maintenant un théorème très important en algèbre linéaire et dans la
théorie des matrices.

Théorème 3.2.2 (Cayley-Hamilton)


Le polynôme caractéristique de u est un polynôme annulateur de u, c’est à dire χu (u) = 0.

Démonstration.
Soit x ∈ E. Notons F le sous-espace vectoriel Ex et P le polynôme u-minimal de x. Le sous-
espace F est stable par u et d’après la proposition 2.3.5, la matrice de uF dans une base
convenable est la matrice compagnon de P . Il s’ensuit que son polynôme caractéristique
vaut P d’après la proposition précédente. Par conséquent P divise χu et χu (u)(x) = 0.
Cela étant vrai pour tout x ∈ E, l’endomorphisme χu (u) est identiquement nul. ♣

Remarque 3.2.3 Le théorème de Cayley-Hamilton peut se démontrer d’une autre ma-


nière. On le prouve, en premier, pour les endomorphismes scindés, puis on le généralise
au cas général en admettant que tout corps admet une clôture algébrique.

Exemples 3.2.3 1. Soit f l’endomorphisme donné dans l’exemple 3.2.1. On a χf (X) =


X 3 − 3X, donc l’endomorphisme χf (f ) = f 3 − 3f est identiquement nul.
2. Soit la matrice  
2 −1 −1
A= 1 0 −1  .
−1 1 2

On vérifie facilement que

χA (X) = X 3 − 4X 2 + 5X − 2.

D’où
χA (A) = A3 − 4A2 + 5A − 2I3 = 0.

Corollaire 3.2.3 Le polynôme minimal Mu de u divise son polynôme caractéristique χu .


De plus, ils ont les mêmes facteurs irréductibles.

Parmi les applications du théorème de Cayley-Hamilton, nous citons :


1. Test de l’inversibilité d’une matrice et calcul de son inverse dans le cas affirmatif.
2. Calcul des puissances successives de matrices.
32 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Calcul de l’inverse d’une matrice

Proposition 3.2.5 Soit A ∈ Mn (K) de polynôme caractéristique χA (X) = a0 + a1 X +


· · · + an−1 X n−1 + X n . Alors A est inversible si et seulement si a0 6= 0. Si A est inversible
alors,
−1
A−1 = (a1 In + · · · + an−1 An−2 + An−1 ).
a0

Démonstration.
C’est une conséquence de la proposition 3.2.1. En effet, la relation a0 = (−1)n det(A)
permet de voir que A est inversible si, et seulement si, a0 6= 0.
Si a0 6= 0, alors la relation

a0 In + a1 A + · · · + an−1 An−1 + An = 0

implique
a0 In = −A(a1 In + · · · + an−1 An−2 + An−1 ).

D’où
−1
A−1 = (a1 In + · · · + an−1 An−2 + An−1 ).
a0

Exemple 3.2.2 Soit la matrice


 
2 −1 −1
A= 1 0 −1  .
−1 1 2

Son polynôme caractéristique est

χA (X) = X 3 − 4X 2 + 5X − 2.

D’où A est inversible puisque χA (0) = det(A) = 2 6= 0. D’autre part la relation

A3 − 4 A2 + 5 A − 2 I3 = 0.

permet d’obtenir
 
1 1 1
1 1
A−1 = (A2 − 4 A + 5 I3 ) =  −1 3 1  .
2 2
1 −1 1
3.2. POLYNÔME CARACTÉRISTIQUE 33

Calcul des puissances successives d’une matrice Soit A ∈ Mn (K) et soit k ∈ N∗ .


On suppose que A admet toutes ses valeurs propres dans K et notre but est de déterminer
la puissance k ième de A.
La division euclidienne de X k par χA (X) donne lieu à une relation de la forme
(∗) X k = χA (X) Q(X) + R(X) avec deg(R(X)) < n.
Supposons R(X) = a0 +a1 X +· · · an−1 X n−1 , avec a0 , . . . , an−1 ∈ K. En évaluant la relation
(∗) en A et en appliquant le théorème de Cayley-Hamilton, il vient Ak = R(A). Le calcul
de Ak revient donc à déterminer les coefficients du polynôme R.
Soit λ une valeur propre de A de multiplicité m. On attribue à X la valeur λ dans la
relation (∗), puis on dérive cette relation m − 1 fois en attribuant à X la valeur λ après
chaque dérivation. Cette opération donne lieu à m équations linéaires dont les inconnues
sont a0 , a1 , . . . , an−1 . L’application de ce processus à toutes les valeurs propres de A donne
lieu à un système linéaire compatible à n équations et n inconnues. Ainsi, les coefficients
de R sont obtenus en résolvant ce dernier système.
Exemple 3.2.3 Soit la matrice de M3 (R) :
 
0 1 0
A =  1 0 1 .
1 1 1
Calculons Ak pour tout k ∈ N∗ .
On vérifie facilement que :
χA (X) = X (X + 1) (X − 2).
Donc A admet 3 valeurs propres simples 0, −1 et 2.
La division euclidienne de X k par χA (X) dans R [X] donne :
X k = χA (X) Q(X) + (ak X 2 + bk X + ck )
où Q(X) ∈ R[X] et ak , bk , ck ∈ R.
En attribuant à X les valeurs 0, −1 et 2 on obtient
1  k−1 1  k−1
+ (−1)k , bk = + 2 (−1)k−1 et ck = 0.
 
ak = 2 2
3 3
En outre, la relation
X k = χA (X) Q(X) + (ak X 2 + bk X + ck )
entraîne que
Ak = χA (A) Q(A) + (ak A2 + bk A + ck I3 ).
Comme χA (A) = 0, d’après le théorème de Cayley-Hamilton, on a
 k−1 
2 + (−1)k 2k−1 + 2(−1)k−1 2k−1 + (−1)k
Ak = ak A2 + bk A + ck I3 = 31  2k + (−1)k−1 2k + 2(−1)k 2k + (−1)k−1  .
 
3 .2k−1 3 .2k−1 3 .2k−1
34 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Exemple 3.2.4 Dans M3 (R), soit la matrice


 
4 0 3
B =  −6 −2 −3  .
−6 0 −5
Calculons B k pour tout k ∈ N∗ .
On a χB (X) = (X − 1)(X + 2)2 , donc B admet deux valeurs propres : 1 simple et −2
double.
La division euclidienne de X k par χB (X) dans R [X] donne :
X k = χB (X) Q(X) + ak X 2 + bk X + ck (3.1)
où Q(X) ∈ R[X] et ak , bk , ck ∈ R.
Dans l’équation 3.1, on attribue à X les valeurs 1 et −2. On obtient deux équations
linéaires en ak , bk et ck . En dérivant la même équation et en attribuant à X la valeur −2,
on obtient une autre équation linéaire en ak , bk et ck . Ceci conduit au système linéaire :

 ak + b k + c k = 1
4ak − 2bk + ck = (−2)k
−4ak + bk = (−2)k−1 k

L’étude de ce système donne les solutions suivantes :


ak = 1/9 + 1/6 (−1)k k2k + 1/9 (−1)1+k 2k
bk = 4/9 + 1/6 (−1)k k2k + 4/9 (−1)1+k 2k
ck = 4/9 + 1/3 (−1)1+k k2k + 5/9 (−1)k 2k .
En évaluant les deux membres de l’équation 3.1, on obtient la relation
B k = χB (B) Q(B) + ak B 2 + bk B + ck I3 .
On applique le théorème de Cayley-Hamilton et on aura :
B k = ak B 2 + bk B + ck I3 .
Définition 3.2.4 L’endomorphisme u est scindé sur K si son polynôme caractéristique
est scindé sur K. Il est scindé simple si les racines du polynôme caractéristique sont toutes
simples.
Proposition 3.2.6 Supposons u scindé sur K de spectre Sp(u) = {λ1 , . . . , λr }. Alors
r
Y
χu (X) = (X − λk )m(λk ) .
k=1
Pr Qr m(λk )
De plus, tr(u) = k=1 m(λk )λk et detu = k=1 λk .
Démonstration.
C’est une conséquence directe de la proposition 3.2.1. ♣
3.3. ENDOMORPHISMES DIAGONALISABLES 35

3.3 Endomorphismes diagonalisables


Dans cette section, nous étudions les endomorphismes qui se représentent dans des
bases convenables par des matrices diagonales.
Soit u ∈ L(E) et soit n la dimension de E.

Définition 3.3.1 L’endomorphisme u est diagonalisable sur K s’il existe une base de E
dans laquelle la matrice de u est une matrice diagonale de Mn (K). Une telle base s’appelle
une base de diagonalisation de u.

Remarque 3.3.1 Une base de diagonalisation B de u est formée de vecteurs propres de


u. Dans une telle base, la famille (v1 , . . . , v` ) obtenue en regroupant les vecteurs propres
associés à une valeur propre λ forme une base de Eλ .

Pour les matrices, on dit que A ∈ Mn (K) est diagonalisable si l’endomorphisme uA de


Kn canoniquement associé est diagonalisable. En considérant la matrice de passage de la
base canonique à une base de diagonalisation de uA , on voit que A est diagonalisable s’il
existe une matrice P ∈ Mn (K) inversible telle que P −1 AP soit diagonale.

Proposition 3.3.1 Si u est diagonalisable, alors le polynôme caractéristique de u est


scindé sur K et il est de la forme :
r
Y
χu (X) = (X − λk )dim(Eλk ) ,
k=1

où λ1 , . . . , λr sont les valeurs propres de u distinctes deux à deux.

Démonstration.
Soit B une base de diagonalisation de u et soit Bλ la famille de vecteurs de B qui sont
des vecteurs propres associés à une valeur propre λ. C’est une base de Eλ . Dans la base
B, la matrice de u est diagonale d’éléments diagonaux les valeurs propres de u. De plus
chaque valeur propre λ se répète autant de fois la dimension de Eλ . D’où le polynôme
caractéristique de u est
Yr
χu (X) = (X − λk )dim(Eλk ) .
k=1

Remarque 3.3.2 On vient de montrer que lorsque u est diagonalisable, la multiplicité


d’une valeur propre coincide avec la dimension du sous espace propre associé.

Le résultat qui suit donne une première caractérisation des endomorphismes diagona-
lisables.
36 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Théorème 3.3.1 Les assertions suivantes sont équivalentes :


1. u est diagonalisable.
2. E est la somme des sous espaces propres de u.
3. E est la somme directe des sous espaces propres de u.
Démonstration.
1. =⇒ 2. Soit B une base de diagonalisation de u. Alors B est la réunion de familles Bλ
formées respectivement des vecteurs de B qui sont des vecteurs propres associés à une
valeur propre λ. Comme Bλ est une base de Eλ on voit que E est la somme des sous-
espaces propres de u.
2. =⇒ 3. Nous avons déjà vu que la somme de sous espaces propres est directe.
3. =⇒ 1. Il suffit de considérer la réunion des bases des sous espaces propres, c’est une
base de diagonalisation de u. ♣

Pr Soit Sp(u) = {λ1 , . . . , λr }. L’endomorphisme u est diagonalisable si et


Corollaire 3.3.1
seulement si k=1 dimEλk = n.
Démonstration.
L’implication directe est claire. Montrons la réciproque. Puisque la somme Eλ1 + · · · + Eλr
est directe, il vient :
Xr
dim(Eλ1 + · · · + Eλr ) = dimEλk = n.
k=1

Ceci montre que E = Eλ1 + · · · + Eλr et par suite u est diagonalisable d’après le théorème
précédent. ♣
Corollaire 3.3.2 L’endomorphisme u est diagonalisable si et seulement si u est scindé
et vérifie
dimEλ = m(λ), ∀λ ∈ Sp(u).
Démonstration. Pr
L’implication
Pr directe est déjà prouvée. La réciproque vient de l’égalité n = k=1 m(λk ) =
k=1 dimEλk . ♣
Corollaire 3.3.3 Si u admet n valeurs propres distinctes deux à deux dans K alors u est
diagonalisable sur K.
Exemple 3.3.1 Soit m un réel et considérons la matrice de M3 (R) :
 
2 − m −2 + 2m 0
B =  1 − m −1 + 2m 0  .
−1 1 2
On a
χB (X) = (X − 1)(X − 2)(X − m).
3.3. ENDOMORPHISMES DIAGONALISABLES 37

Si m 6= 1 et m 6= 2, B admet trois valeurs propres distinctes deux à deux, donc elle est
diagonalisable.
Si m = 1, B est diagonalisable si, et seulement si, dim(E1 ) = 2. Calculons E1 . Un vecteur
X = xe1 + ye2 + ze3 appartient à E1 si, et seulement si, BX = X. Ceci donne lieu au
système linéaire : 
 x = x
y = y
−x + y + 2z = z

L’étude de ce système montre que E1 le plan d’équation −x+y +z = 0. D’où dim(E1 ) = 2


et B est diagonalisable.
Si m = 2, B est diagonalisable si, et seulement si, dim(E2 ) = 2. Cherchons E2 en résolvant
BX = 2X, c’est à dire le système

 2y = 2x
−x + 3y = 2y
−x + y + 2z = 2z

L’étude de ce sysème montre que c’est l’équation du plan de R3 d’équation x − y = 0.


Il s’ensuit que le sous espace propre E2 est de dimension 2. Puisque dim(E1 ) = 1 et
dim(E2 ) = 2, la matrice B est diagonalisable sur R.

Algorithme de diagonalisation
Diagonaliser l’endomorphisme u c’est déterminer une base de vecteurs propres de u ;
autrement dit, une base dans laquelle la matrice de u est diagonale. Supposons que A est
la matrice de u dans une base B de E. Pour diagonaliser u on suit l’algorithme suivant :
Algorithme

1) On calcule χu (X).
Si χu (X) est scindé sur K on passe à l’étape suivante ; sinon u
n’est pas diagonalisable.
2) Pour chaque valeur propre λ de u on détermine la dimension de Eλ .
a) Si pour une valeur propre λ, on a dim(Eλ ) < m(λ), l’endomorphisme u
n’est pas diagonalidable sur K.
b) Si pour toute valeur propre λ, on a dim(Eλ ) = m(λ), l’endomorphisme u
est diagonalisable ; on passe à l’étape suivante.
3) Pour chaque valeur propre λ, on détermine une base Bλ de Eλ .
Soit B 0 la réunion de ces bases.
4) Soit P la matrice de passage de B à B 0 .
La matrice D de u dans B 0 est diagonale et on a D = P −1 AP .
Parmi les applications de la diagonalisation des matrices, on cite le calcul des puissances
d’une matrice carrée. Soit A ∈ Mn (K) une matrice diagonalisable ; il existe alors une
38 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

matrice diagonale D ∈ Mn (K) et une matrice inversible P ∈ Mn (K) telles que A =


P DP −1 .
En notant  
λ1 0
D=
 .. ,

.
0 λn
on a :  
λk1 0
∀k ∈ N Dk = 
 ... ,

0 λkn
Il est donc facile de déterminer la valeur de Ak en utilisant la relation Ak = P Dk P −1 ∀k ∈
N.

Exemple 3.3.2 Considérons à nouveau la matrice A de l’exemple précédent pour le cas


m = 2. Les valeurs propres de A sont λ1 = 1 de multiplicité 1 et λ2 = 2 de multiplicité
2. Nous avons déjà montré que A est diagonalisable sur R. Cherchons E1 en résolvant
AX = X dans R3 , c’est à dire le système

 2y = x
−x + 3y = y
−x + y + 2z = z

L’étude de ce système montre que E1 est engendré par 2e1 + e2 + e3 . Pour E2 , nous
avons déjà vu que c’est le plan d’équation x = y. Ainsi une base de E2 est (e1 + e2 , e3 ).
Finalement, la matrice A est semblable à la matrice diagonale
 
1 0 0
D =  0 2 0 .
0 0 2

et la matrice de passage est  


2 1 0
P =  1 1 0 .
1 0 1
La formule de changement de bases montre que

D = P −1 AP.

Puisque  
1 0 0
D k =  0 2k 0  ,
0 0 2k
3.3. ENDOMORPHISMES DIAGONALISABLES 39

il vient  
2 − 2k −2 + 2 2k 0
Ak = P Dk P −1 = 
 k k

 1 − 2 −1 + 2 2 0 .

k k k
1−2 −1 + 2 2

Donnons maintenant des critères de diagonalisabilité d’un endomorphisme en se basant


sur des propriétés de son polynôme minimal.
Proposition 3.3.2 Si u est diagonalisable de spectre Sp(u) = {λ1 , . . . , λr }, le polynôme
minimal de u est r
Y
Mu (X) = (X − λk ).
k=1

Démonstration.
Posons P = rk=1 (X − λk ). Puisque (X − λk ) divise Mu pour tout k ∈ {1, . . . , r}, il vient
Q
P divise Mu .
Montrons que Mu divise P . Soit x ∈ E, il s’écrit x = x1 + · · · + xr , avec xi ∈ Eλi . On a
alors :
P (u)(x) = (Qrk=1 (u − λk IdE ))(x)
Q
= (Qrk=1 (u − λk IdE ))(x1 + · · · + xrQ)
= ( k=1 (u − λk IdE ))(x1 ) + · · · + ( rk=1 (u − λk IdE ))(xr )
r

= ( rk6=1 (u − λk IdE )) ◦ (u − λ1 IdE )(x1 ) + · · · + ( r−1


Q Q
k=1 (u − λk IdE )) ◦ (u − λr IdE )(xr )
= 0.

Ceci est vrai pour tout x dans E, donc P (u) = 0. Ceci prouve que Mu divise P .
Le résultat est donc démontré. ♣
Théorème 3.3.2 Un endomorphisme est diagonalisable si, et seulement si, il annule un
polynôme scindé simple.
Démonstration.
L’implication directe est évidente. Montrons la réciproque. Soit N (X) = sk=1 (X − λk )
Q
un polynôme scindé simple tel que N (u) = 0. Le lemme des noyaux montre que E =
⊕sk=1 Ker(u − λk IdE ) et le résultat est obtenu en considérant une base adaptée à cette
somme directe. ♣
Corollaire 3.3.4 Un endomorphisme est diagonalisable si et seulement si son polynôme
minimal est scindé simple.

Proposition 3.3.3 L’endomorphisme induit sur un sous-espace vectoriel stable par un


endomorphisme diagonalisable est diagonalisable.

Démonstration.
Il suffit de remarquer que l’endomorphisme induit annule le polynôme minimal de u. ♣
40 CHAPITRE 3. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Exercice 3.3.1 On munit R3 de sa base canonique B = (e1 , e2 , e3 ) et soit f l’endomor-


phisme de R3 canoniquement associé à la matrice
 
−1 4 0
A =  −2 5 0  .
−1 1 2

1. Calculer χf (X).
2. Montrer que f est diagonalisable sur R.
3. Déterminer les sous espaces propres de f .
4. Donner une base de diagonalisation B 0 de f .
5. Déterminer une matrice inversible P telle que D = P −1 AP soit diagonale.
6. Soit à résoudre l’équation (E) : X 2 = A dans M3 (R).
(a) Soit X ∈ M3 (R) une solution de E et soit g l’endomorphisme canoniquement
associé. Montrer que g 2 = f et f ◦ g = g ◦ f .
(b) Montrer que g laisse stables les sous-espaces propres de f .
(c) Montrer que g est diagonalisable et que B 0 est une base de diagonalisation de g.
(d) Soit Y la matrice de g dans B 0 . Montrer que Y 2 = D.
(e) Donner la relation entre X et D et donner la forme des solutions de l’équation
(E).
Chapitre 4

Réduction des endomorphismes scindés

Dans tout ce chapitre K désigne un corps commutatif et E est un espace vectoriel sur
K de dimension finie.

4.1 Endomorphismes trigonalisables


Soit u ∈ L(E). Dans la suite on note par n la dimension de E.

Définition 4.1.1 L’endomorphisme u est dit trigonalisable s’il existe une base de E dans
laquelle la matrice de u est une matrice triangulaire de Mn (K). Une telle base s’appelle
une base de trigonalisation de u.

Remarque 4.1.1 Si la matrice de u dans une base (e1 , . . . , en ) est triangulaire supérieure,
la matrice de u dans la base (en , . . . , e1 ) est triangulaire inférieure.

Pour les matrices, on dit que A ∈ Mn (K) est trigonalisable si l’endomorphisme uA de Kn


canoniquement associé est trigonalisable. En considérant la matrice de passage de la base
canonique à une base de trigonalisation de uA , on voit que A est trigonalisable s’il existe
une matrice P ∈ Mn (K) inversible telle que P −1 AP soit triangulaire.
Le résultat suivant présente une condition suffisante pour que l’endomorphisme u soit
trigonalisable.

Proposition 4.1.1 Si l’endomorphisme u est scindé de valeurs propres λ1 , . . . , λn , (comp-


tées avec leurs multiplicités), alors il existe une base de E dans laquelle la matrice de u
est triangulaire supérieure d’éléments diagonaux λ1 , . . . , λn .

Démonstration.
Nous allons procéder par récurrence sur la dimension n de E. L’assertion est vraie pour
n = 1. Supposons qu’elle soit acquise pour toute dimension strictement inférieure à n
(avec n > 1).

41
42 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

On considère un hypeplan F qui contient l’image de l’endomorphisme non inversible


u − λn IdE . Il est stable par u − λn IdE et, donc, par u. Il s’ensuit que dans une base
(e1 , . . . , en−1 , en ) de E, adaptée à F , la matrice de u est de la forme
 
A B
0 λn

où A est la matrice de l’endomorphisme uF induit par u sur F . Puisque

χu (X) = (X − λ1 ) · · · (X − λn )

on obtient
χuF = χA (X) = (X − λ1 ) · · · (X − λn−1 ).
En utilisant l’hypothèse de récurrence, il existe (f1 , . . . , fn−1 ) une base de F dans laquelle
la matrice de uF est de la forme

λ1 ? · · ·
 
?
... ... .. 
 0 . 

 . . . .
 .. .. .. ? 
0 . . . 0 λn−1

Finalement, la matrice de u dans la base (f1 , . . . , fn−1 , en ) est de la forme

λ1 ? · · · ?
 
. . . . . . .. 
 0 . 

 . . . .
 .. .. .. ? 
0 . . . 0 λn


On peut maintenant énoncer le théorème suivant :
Théorème 4.1.1 L’endomorphisme u est trigonalisable si et seulement si il est scindé
sur K.
Démonstration.
Si u est trigonalisable, alors, par définition, sa matrice dans une base convenable est trian-
gulaire. Il est donc scindé puisque le polynôme caractéristique d’une matrice triangulaire
l’est. La réciproque vient de la proposition précédente. ♣
Exemple 4.1.1 Soit la matrice de M3 (R) :
 
1 4 −2
A =  0 6 −3  .
−1 4 0
4.1. ENDOMORPHISMES TRIGONALISABLES 43

On vérifie facilement que χA (X) = (X − 2)2 (X − 3). Donc A est trigonalisable puisque
χA (X) est scindé. Cherchons le sous-espace propre E3 en résolvant le système AX = 3X.
Ce qui conduit au système

 −2x + 4y − 2z = 0
3y − 3z = 0 .
−x + 4y − 3z = 0

qui se réduit à l’équation x = y = z. Il vient E3 = Vect{v1 = e1 + e2 + e3 }.


Calculons ensuite le sous espace propore associé à 2 en résolvant AX = 2X dans R3 . On
obtient le système 
 x + 4y − 2z = 2x
6y − 3z = 2y
−x + 4y = 2z

qui est équivalent au système



 −x + 4y − 2z = 0
4y − 3z = 0
−x + 4y − 2z = 0

Ainsi E2 = Vect{v2 = 4e1 + 3e2 + 4e3 }.


Pour trigonaliser la matrice A, il suffit de compléter la famille libre (v1 , v2 ) en une base
de R3 . Posons v3 = e3 . On a
Ae3 = −2e1 − 3e2 = −6v1 + v2 + 2v3 .
Il s’ensuit que la matrice A est semblable à la matrice triangulaire
 
3 0 −6
T = 0 2 1 .
0 0 2
La matrice de passage de la base canonique à la base (v1 , v2 , v3 ) est
 
1 4 0
P =  1 3 0 .
1 4 1
Nous avons le résultat général suivant :
Théorème 4.1.2 L’endomorphisme u est trigonalisable si et seulement si il possède un
polynôme annulateur non nul scindé.
Démonstration.
Si u est trigonalisable alors son polynôme caractéristique est scindé et c’est un polynôme
annulateur de u. Pour la réciproque, supposons que u possède un polynôme annulateur
scindé sur K. Alors le polynôme minimal de u est scindé sur K. Puisque Mu et χu ont les
mêmes facteurs irréductibles sur K, il vient χu est scindé sur K. d D’où u est trigonalisable
par la proposition précédente. ♣
44 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Trigonalisation de matrices d’ordre 3 L’algorithme suivant décrit une méthode


simple pour la trigonalisation des matrices carrées d’ordre 3. Soit A une matrice de M3 (K)
de polynôme caractéristique scindé sur K.

Algorithme :
1) A admet trois valeurs propres distinctes deux à deux : dans ce cas, A est diagonalisable sur K.
2) A admet deux valeurs propres distinctes λ1 et λ2 avec m(λ2 ) = 2.
a) Si dim(Eλ2 ) = 2, la matrice A est diagonalisable sur K.
b) Si dim(Eλ2 ) = 1,
On choisit v1 un vecteur propre associé à λ1 .
On choisit v2 un vecteur propre associé à λ2 .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
Si P est la matrice de passage de la base canonique de K3 à (v1 , v2 , v3 ),
alors P −1 AP est triangulaire.
3) A admet une seule valeur propre λ.
Si dim(Eλ ) = 3, la matrice A est diagonalisable sur K.
Si dim(Eλ ) = 2,
On détermine une base (v1 , v2 ) de Eλ .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
Si P est la matrice de passage de la base canonique de K3 à (v1 , v2 , v3 ),
alors P −1 AP est triangulaire.
Si dim(Eλ ) = 1,
On considère v1 un vecteur propre associé à λ.
On détermine un vecteur v2 tel que (A − λI3 )v2 soit non nul
et colinéaire à v1 .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
Si P est la matrice de passage de la base canonique de K3 à (v1 , v2 , v3 ),
alors P −1 AP est triangulaire.

Pour les endomorphismes nilpotents, nous avons le résultat particulier suivant :

Proposition 4.1.2 Les trois assertions suivantes sont équivalentes :


1. u est nilpotent.
2. χu (X) = X n .
3. Il existe une base de E dans laquelle la matrice de u est triangulaire supérieure
stricte.
4.2. DÉCOMPOSITION DE DUNFORD DES ENDOMORPHISMES SCINDÉS 45

Démonstration.
1. =⇒ 2. Si r est l’indice de nilpotence de u alors son polynôme minimal est Mu (X) = X r .
Le spectre de u est donc réduit à {0}. D’où χu (X) = X n .
2. =⇒ 3. Si χu (X) = X n , l’endomorphisme u est scindé et il existe une base de E dans la
quelle la matrice de u est triangulaire supérieure d’éléments diagonaux les valeurs propres
de u. Comme Sp(u) = {0}, cette matrice est triangulaire supérieure stricte.
3. =⇒ 1. Soit A la matrice triangulaire supérieure stricte représentant u dans une base
de E. On a An = 0 et par suite un = 0. ♣
Exemple 4.1.2 Soit (e1 , e2 , e3 ) la base canonique de R3 et soit N la matrice de M3 (R) :
 
2 1 1
N =  −2 −1 −1  .
−2 −1 −1
On a χN (X) = X 3 , donc N est nilpotente. Déterminons le sous-espace propre associé à
la valeur propre 0. En résolvant le système N X = 0, on obtient
E0 = Vect{v1 = e1 − 2e2 , v2 = e2 − e3 }.
En suite, on complète la famille (v1 , v2 ) par v3 = e3 en une base (v1 , v2 , v3 ) de R3 . C’est
une base de trigonalisation de N . Puisque N v3 = v1 + v2 , il vient N est semblable à la
matrice triangulaire stricte
 
0 0 1
T = P −1 N P =  0 0 1  ,
0 0 0
où P est la matrice de passage de (e1 , e2 , e3 ) à (v1 , v2 , v3 ).
Proposition 4.1.3 Si l’endomorphisme u est scindé de valeurs propres λ1 , . . . , λn , alors,
pour tout polynôme P de K[X], l’endomorphisme P (u) est scindé de valeurs propres
P (λ1 ), . . . , P (λn ).
Démonstration.
Puisque u est scindé, il existe une base de E dans laquelle la matrice T de u est triangulaire
d’éléments diagonaux les valeurs propres de u : λ1 , . . . , λn . Dans la même base, la matrice
de uk , pour tout k ∈ N, est T k qui est triangulaire d’éléments diagonaux λk1 , . . . , λkn . Il
s’ensuit que le résultat est vrai pour tout polynôme P . ♣

4.2 Décomposition de Dunford des endomorphismes scin-


dés
Dans cette section, on montre que tout endomorphisme scindé est la somme unique
d’un endomorphisme diagonalisable et d’un endomorphisme nilpotent qui commutent. On
46 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

verra l’utilité de cette décomposition pour la résolution des systèmes d’équations différen-
tielles linéaires à coefficients constants.
Soit u ∈ L(E). Dans la suite, l’entier n dénote la dimension de E.

4.2.1 Sous-espaces caractéristiques et décomposition spectrale


Supposons u scindé de polynôme caractéristique
r
Y
χu (X) = (X − λk )m(λk ) ,
k=1

avec λi 6= λj pour i 6= j.

Définition 4.2.1 On appelle sous espace cractéristique (ou spectrale) de u associé à la


valeur propre λk , et l’on note Fλk , le sous espace Ker(u − λk IdE )m(λk ) .

Le lemme des noyaux montre que E est la somme directe des sous espaces caractéristiques
de u :
E = F λ1 ⊕ · · · ⊕ F λr .
Cette décomposition s’appelle la décomposition spectrale de u.

Proposition 4.2.1 Pour k ∈ {1, . . . , r}, soit Fk le sous espace caractéristique de u as-
socié à la valeur propre λk . Alors :
1. Fk est stable par u.
2. L’endomorphisme uk induit par u sur Fk est de la forme λk IdFk + nk , où nk est un
endomorphisme nilpotent de Fk .
3. dim(Fk ) = m(λk ).

Démonstration.
Le sous espace Fk est le noyau d’un polynôme en u donc il est stable par u. Soient uk
l’endomorphisme induit par u sur Fk et nk = uk − λk IdFk . Puisque (u − λk IdE )m(λk ) est
nul sur Fλk , l’endomorphisme nk est nilpotent. D’autre part, le polynôme caractéristique
de uk est (X − λk )f (λk ) où f (λk ) est la dimension de Fk . On obtient ainsi
r
Y
χu (X) = (X − λk )f (λk )
k=1

et par suite f (λk ) = m(k ) pour k = 1, . . . , r. ♣


En utilisant les mêmes notations précédentes, on a le corollaire suivant :
4.2. DÉCOMPOSITION DE DUNFORD DES ENDOMORPHISMES SCINDÉS 47

Corollaire 4.2.1 Il existe une base B de E, appelée base spectrale de u et adaptée à la


décomposition spectrale de u, dans laquelle la matrice de u est diagonale par blocs. De plus,
chaque bloc est une matrice triangulaire supérieure d’ordre m(λk ) et d’éléments diagonaux
tous égaux à λk .

Démonstration.
Pour k ∈ {1, . . . , r}, soit Bk une base de Fk dans laquelle la matrice Nk de nk est trian-
gulaire supérieure stricte d’ordre m(λk ). Dans la base B, réunion des bases Bk , la matrice
de u est diagonale par blocs et le kème bloc est égal à λk Im(λk ) + Nk . ♣
On donne un résultat reliant le polynôme minimal de u et ses sous espaces caractéris-
tiques.

Proposition 4.2.2 Si Mu (X) = rk=1 (X − λk )r(λk ) est le polynôme minimal de u, alors


Q
r(λk ) est l’indice de nilpotence de nk et Fk est le noyau de (u − λk IdE )r(λk ) .

Démonstration.
0
Le polynôme minimal de uk est (X − λk )r (λk ) où r0 (λk ) est l’indice de nilpotence de nk .
Il s’ensuit que le polynôme minimal de u est
r
0
Y
(X − λk )r (λk ) .
k=1

Ainsi r0 (λk ) = r(λk ). En utilisant le lemme des noyaux, on obtient la décomposition

E = Ker(u − λ1 )r(λ1 ) ⊕ · · · ⊕ Ker(u − λr )r(λr ) ,

et puisque Ker(u − λk )r(λk ) ⊂ Fk pour tout k ∈ {1, . . . , r}, il vient Fk = Ker(u − λk )r(λk ) .

Exemple 4.2.1 Considérons la matrice J de M4 (R) :


 
0 1 1 1
 1 0 1 1 
J = 1
.
1 0 1 
1 1 1 0

On a MJ (X) = (X + 1)(X − 3) et χJ (X) = (X + 1)3 (X − 3). Donc, en notant uJ


l’endomorphisme canoniquement associé à J, les sous espaces caractéristiques de J sont
respectivement F−1 = Ker(uJ + I4 ) et F3 = Ker(uJ − 3I4 ).

4.2.2 Décomposition de Dunford


Le théorème suivant représente le résultat essentiel de cette section.
48 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Théorème 4.2.1 (Décomposition de Dunford)


Supposons u scindé sur K. Alors il existe un unique couple (d, r) formé d’un endomor-
phisme diagonalisable d et d’un endomorphisme nilpotent r tel que u = d+r et d◦r = r◦d.
De plus ces endomorphismes sont des polynômes en u.
Démonstration.
Supposons que χu (X) = rk=1 (X − λk )m(λk ) avec λi 6= λj pour i 6= j.
Q
Soit (pλ1 , . . . , pλr ) la famille des projecteurs sur les sous espaces caractéristiques de u.
L’endomorphisme d = λ1 pλ1 + · · · + λr pλr est diagonalisable et puisque les pλk sont des
polynômes en u d’après le corollaire 2.4.2, c’est un polynôme en u. D’autre part, l’endo-
morphisme r = u−d induit sur les Fk des endomorphismes nilpotents, donc il est nilpotent
et c’est aussi un polynôme en u. Il reste à montrer l’unicité. Pour cela soit (d0 , r0 ) un autre
couple vérifiant les mêmes conditions que (d, r). Puisque d0 commute avec u il commute
avec tout polyôme en u et donc avec d. Par suite d et d0 admettent une base de diagona-
lisation commune. Alors d − d0 est diagonalisable. De même r et r0 commutent entre eux,
ce qui montre que r0 − r est nilpotent. Il s’nesuit que d − d0 = r0 − r est un endomorphisme
diagonalisable et nilpotent. D’où d − d0 est nul et par conséquent d = d0 et r = r0 . ♣
Remarque 4.2.1 L’analogue du théorème précédent pour les matrices A ∈ Mn (K) est le
suivant :
Si le polynôme caractéristique de A est scindé sur K, alors il existe un unique couple de
matrices (D, N ) ∈ n(K), avec D diagonalisable sur K et N nilpotente, tel que A = D + N
et DN = N D. De plus les matrices D et N sont des polynômes en A.
 
1 1
Remarque 4.2.2 Soit la matrice A = de M2 (R). On a
0 2
   
1 0 0 1
A=A= +
0 2 0 0
   
1 0 0 1
avec diagonale et . Cependant
0 2 0 0
     
1 0 0 1 0 1 1 0
6= .
0 2 0 0 0 0 0 2
Ce qui montre que cette décomposition n’est pas la décomposition de Dunford de A.

Méthode pratique pour la décomposition de Dunford Supposons u scindé de


polynôme caractéristique
r
Y
χu (X) = (X − λk )m(λk ) ,
k=1

avec λi 6= λj pour i 6= j.
La projection de E sur le sous espace caractéristique Fλi parallèllement à ⊕j6=i Fλj appelée
4.2. DÉCOMPOSITION DE DUNFORD DES ENDOMORPHISMES SCINDÉS 49

projecteur spectral de u sur Fλi est un polynôme en u. En effet, notons Qi le polynôme


m(λj )
Q
j6=i (X − λj ) , pour i ∈ {1, . . . , r} ; alors par l’identité de Bézout, il existe A1 , . . . , Ar
tels que
1 = A1 Q1 + · · · + Ar Qr .
Il s’ensuit que pour tout x de E on a :

x = (A1 Q1 )(u)(x) + · · · + (Ar Qr )(u)(x),

avec (Ai Qi )(u)(x) ∈ Fλi pour i ∈ {1, . . . , r}. Comme E est la somme directe des sous
espaces caractéristiques, le projecteur spectral sur Fλi est donné par

pi = (Ai Qi )(u).

On calcule les polynômes Ai en effectuant la décomposition en éléments simples de la


fraction rationnelle χu 1(X) :

r
1 X Ai
= m(λi )
.
χu (X) i=1
(X − λ i )

Ainsi la décomposition de Dunford de u est donnée par


r
X
d= λk (Ak Qk )(u), n = u − d.
k=1

Exemple 4.2.2 Soit A la matrice de M3 (R) :


 
5 3 1
A =  −3 −1 −1  .
−5 −4 0

On a χA (X) = (X − 1)2 (X − 2) qui est un polynôme scindé sur R. Donnons la décompo-


sition de Dunford de A. La décomposition en éléments simples de la fraction (X−1)12 (X−2)
est comme suit :
1 −X 1
= + .
(X − 1)2 (X − 2) (X − 1)2 X − 2
On obtient donc l’identité de Bézout

1 = −X(X − 2) + (X − 1)2 .

Ainsi la décomposition de Dunford de A est :

A = D + N,
50 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

où D est la matrice diagonalisable


 
3 2 0
D = −A(A − I3 ) + 2 (A − I3 )2 =  −1 0 0 
−3 −3 1

et N est la matrice nilpotente


 
2 1 1
N = A − D =  −2 −1 −1  .
−2 −1 −1

4.3 Réduction de Jordan des endomorphismes scindés


La réduction de Jordan d’un endomorphisme scindé est la détermination d’une base
dans laquelle la matrice de cet endomorphisme est diagonale par blocs et dont chaque
bloc est un bloc de Jordan. Dans cette section, nous allons voir comment calculer de telles
bases appelées bases de Jordan.
Soit u ∈ L(E) et soit n la dimension de E.

Définition 4.3.1 On appelle bloc de Jordan de valeur propre λ et d’ordre p > 0 la matrice
carrée
λ 1 ··· 0
 
. . .. 
 0 λ
 . . 
Jp (λ) =  . . .
 .. . . . . 1 

0 ··· 0 λ
On appelle matrice réduite de Jordan toute matrice diagonale par blocs de blocs de Jordan.
Une telle matrice est de la forme

···
 
Jh1 (λ1 ) 0 0
. ..
0 Jh2 (λ1 ) . . .
 
,
 
 .
.. . .. . ..
 0 
0 ··· 0 Jhq (λq )

avec h1 , . . . , hq des entiers strictement positifs et λ1 , . . . , λq des scalaires non nécessaire-


ment deux à deux distincts. On note une telle matrice par diag(Jh1 (λ1 ), . . . , Jhq (λq )).

Exemple 4.3.1 La matrice suivante est un bloc de Jordan de valeur propre 2 :


 
2 1 0
J(λ) =  0 2 1 
0 0 2
4.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 51

La matrice suivante est une matrice réduite de Jordan :


 
2 1 0 0 0 0
 0 2 1 0 0 0 
 
 0 0 2 0 0 0 
Jp (λ) = 
 0 0 0 1 1

 0 

 0 0 0 0 1 0 
0 0 0 0 0 3

Elle est formée de trois blocs de Jordan.

4.3.1 Réduction de Jordan des endomorphismes nilpotents


On commence par la réduction de Jordan des endomorphismes nilpotents et ensuite
on la généralise aux endomorphismes scindés. Supposons que u est nilpotent d’indice de
nilpotence r et notons

`k = dimKer(uk ) − dimKer(uk−1 ) pour k ∈ {1, . . . , r}.

On a la proposition suivante :

Proposition 4.3.1 1. La suite {0} = Ker(u0 ) ⊂ Ker(u) ⊂ · · · ⊂ Ker(ur−1 ) ⊂


r
Ker(u ) = E est strictement croissante.
2. Pour k ∈ {2, . . . , r}, si (ek1 , . . . , ek`k ) est une base d’un supplémentaire Hk de Ker(uk−1 )
dans Ker(uk ), alors il existe une base (ek−1 k−1
1 , . . . , e`k−1 ) d’un supplémentaire Hk−1
de Ker(uk−2 ) dans Ker(uk−1 ) de la forme

(u(ek1 ), . . . , u(ek`k ), f1 , . . . , fq ).

3. Les nombres `i vérifient la relation `r ≤ `r−1 ≤ · · · ≤ `1 .

Démonstration.

1. Il est facile de voir que si Ker(uj ) = Ker(uj+1 ) pour un certain j alors Ker(uj ) =
Ker(uj+i ) pour tout i ≥ 0. Ceci permet de montrer le premier point.
2. La somme Ker(uk−2 ) + Ku(ek1 ) + · · · + Ku(ek`k ) de sous espaces de Ker(uk−1 ) est
directe. En effet, soit (h, α1 , . . . , α`k ) ∈ Ker(uk−2 ) × K`k vérifiant h + α1 u(ek1 ) +
· · · + α`k u(ek`k ) = 0. En introduisant uk−2 , on obtient uk−1 (α1 ek1 + · · · + α`k ek`k ) = 0.
Il s’ensuit que α1 ek1 + · · · + α`k ek`k appartient à Ker(uk−1 ) et à l’un de ses sup-
plémentaires dans Keruk . Il vient alors αi = 0 pour i ∈ {1, . . . , `k } et par suite
h = 0. Enfin, une base d’un supplémentaire de Ker(uk−2 ) + Ku(ek1 ) + · · · Ku(ek`k )
dans Ker(uk−1 ) fournit la famille (f1 , . . . , fq ) convenable.
52 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

3. Ce point découle simplement du dernier point. ♣

On construit ainsi par récurrence descendante une suite de familles de vecteurs


(ek1 , . . . , ek`k ) vérifiant pour tout k ∈ {1, . . . , r} :
(a) (ek1 , . . . , ek`k ) est une base d’un supplémentaire Hk de Ker(uk−1 ) dans Ker(uk ).
(b) u(ekj ) = ek−1
j pour tout j ∈ {1, . . . , `k } et u(e1j ) = 0 pour tout j ∈ {1, . . . , `1 }.
Puisque E = ⊕rk=1 Hk , la réunion des familees (ek1 , . . . , ek`k ) forme une base de E.
On dispose alors d’un tableau T , dit tableau de Young, dont la forme déterminée
par la liste (`1 , . . . , `r ) des longueurs de ses lignes ne dépend que de u.
Dans la suite, on note (h1 , . . . , h`1 ) la suite décroissante des hauteurs des colonnes
du tableau T et on rappelle que `1 = dim(Ker(u)).
Tableau de Young
er1 ··· er`r
er−1
1 er−1
`r ··· er−1
`r−1
.. .. ..
. . .
e21 ··· e2`r ··· e2`r−1 ··· e2`2
e11 ... e1`r ··· e1`r−1 ··· e1`2 ··· e1`1
Lemme 4.3.1 Pour k ∈ {1, . . . , r}, la famille constituée des éléments des k pre-
mières lignes (à partir du bas) du tableau de Young, est une base de Ker(uk ).
Démonstration.
Il suffit d’utiliser la relation Ker(uk ) = Ker(uk−1 ) ⊕ Hk . ♣
Soit C une base de E dans la quelle la matrice de u est de la forme
diag(Js1 (0), . . . , Jsq (0)),
avec s1 ≥ s2 ≥ · · · ≥ sq .
Soit T 0 le tableau obtenu en disposant les éléments de C de bas en haut et de
gauche à droite par colonnes de hauteurs si .
On a le lemme suivant :
Lemme 4.3.2 Le noyau de uk est engendré par les vecteurs des k premières lignes
de T 0 , (à partir du bas).
Démonstration.
Pour tout i ∈ {1, . . . , q}, Jsi (0) est un bloc de Jordan, donc si ≤ r. Soit Gk , k ∈
{1, . . . , r} le sous espace engendré par les éléments de la k ème ligne de T 0 . On a
G1 ⊕ · · · ⊕ Gk ⊂ Ker(uk ). Ceci montre que dim(Gk ) ≤ `k . Comme dim(G1 ) + · · · +
dim(Gr ) = `1 + · · · + `r , il vient dim(Gk ) = `k . D’où G1 ⊕ · · · ⊕ Gk = Ker(uk ) pour
tout k ∈ {1, . . . , r}. Ceci complète la preuve. ♣
On peut maintenant énoncer le théorème suivant :
4.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 53

Théorème 4.3.1 Il existe une base de E dans laquelle la matrice de u est une
matrice réduite de Jordan
diag(Jh1 (0), . . . , Jh`1 (0)),
avec (h1 , . . . , h`1 ) une suite décroissante d’entiers non nuls.
Deux matrices réduites de Jordan représentant u sont égales à l’ordre près de blocs
de Jordan.
Démonstration.
On note B la base formée des éléments du tableau T , indexés en le parcourant de
bas en haut et de gauche à droite. La matrice de u dans la base B est de la forme
diag(Jh1 (0), . . . , Jh`1 (0)),
et la suite (h1 , . . . , h`1 ) est bien une suite décroissante d’entiers non nuls.
Supposons que la matrice de u dans une autre base C soit de la forme
diag(Js1 (0), . . . , Jsq (0)).
Quitte à permutter les éléments de C, on peut supposer que (s1 , . . . , sq ) est une suite
décroissante d’entiers non nuls. En disposant les éléments de C de bas en haut et
de gauche à droite par colonnes de hauteurs si , on construit un tableau T 0 . D’après
le lemme précédent, le noyau de uk est engendré par les vecteurs des k premières
lignes de T 0 (à partir du bas), alors les lignes de T et T 0 ont les mêmes longueurs et
ces deux tableaux ont la même forme. Il vient q = `1 et (h1 , . . . , h`1 ) = (s1 , . . . , s`1 ).

Exemples de tableaux de Young et réduites de Jordan pour des matrices


nilpotentes On rappelle que si A est une matrice de Mn (K), alors uA désigne
l’endomorphisme de Kn canoniquement associé à A. Dans les exemples suivants,
(e1 , . . . , en ) désigne la base canonique de Kn . Une base dans la quelle la matrice de
uA est une matrice réduite de Jordan s’appelle une base de Jordan.
Exemple 4.3.2 Soit la matrice nilpotente
 
1 0 1
 
N =  −1 0 −1  .

−1 0 −1

On a N 6= 0 et N 2 = 0 donc l’indice de nilpotence de N est r = 2. Déterminons le


tableau de Young de N . On calcule tout d’abord la suite des noyaux :
Ker(uN ) = Vect{−e1 + e3 , e2 } ⊂ Ker(u2N ) = R3 .
Comme e1 ∈ R3 \Ker(uN ), alors R3 = Ker(uN ) ⊕ Re1 . On complète uN (e1 ) en une
base (uN (e1 ), e2 ) de Ker(uN ). Par conséquent, un tableau de Young de N est
54 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

e1
uN (e1 ) e2
Il s’ensuit que la famille (uN (e1 ), e1 , e2 ) est une base de Jordan de N . Une réduite
de Jordan semblable à N est
 
0 1 0
 
J =  0 0 0 .

0 0 0

Exemple 4.3.3 Soit la matrice nilpotente


 
0 −1 1
 
N =  0 1 −1 .

1 2 −1

Son indice de nilpotence est r = 3. On calcule facilement la suite des noyaux :

Ker(uN ) = Vect{−e1 + e2 + e3 } ⊂ Ker(u2N ) = Vect{−e1 + e2 , e3 } ⊂ Ker(u3N ) = R3 .

Comme R3 = Ker(N 2 ) ⊕ Re1 , Ker(N 2 ) = Ker(N ) ⊕ Vect{uN (e1 )} et Ker(N ) =


Vect{u2N (e1 )}, alors un tableau de Young de N est
e1
uN (e1 )
u2N (e1 )
Il découle que la famille (u2N (e1 ), uN (e1 ), e1 ) forme une base de Jordan de N et
qu’une réduite de Jordan semblable à N est
 
0 1 0
 
J =  0 0 1 .

0 0 0

−1 2 3 4
 

 −1 3 4 6 
 
Exemple 4.3.4 On considère la matrice nilpotente N = 
 −1
.
 1 2 2 

1 −2 −3 −4
Son indice de nilpotence est r = 3. De plus, la suite des noyaux est :
Ker(uN ) = Vect{−2e2 +e4 , e1 −e2 +e3 } ⊂ Ker(u2N ) = Vect{−2e2 +e4 , −e2 +e3 , e1 } ⊂ Ker(u3N ) = R4 .

Puisque R4 = Ker(u2N ) ⊕ Vect{e2 }, Ker(u2N ) = Ker(uN ) ⊕ Vect{uN (e2 )} et Ker(uN ) =


Vect{u2N (e2 ), e1 − e2 + e3 }, un tableau de Young de N est :
4.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 55

e2
uN (e2 )
u2N (e2 ) e1 − e2 + e3
Ainsi une base de Jordan de N est (u2N (e2 ), uN (e2 ), e2 , e1 − e2 + e3 ) et une réduite de
Jordan semblable à N est  
0 1 0 0
 
 0 0 1 0 
J = .
 
 0 0 0 0 
 
0 0 0 0
Exemple 4.3.5 Soit la matrice nilpotente
−2 4 5 7
 

 −1 2 3 4 
 
N =  0 0 1
.
 1 

0 0 −1 −1
Son indice de nilpotence est r = 2. On détermine facilement la suite des noyaux :
Ker(uN ) = Vect{e1 − e3 + e4 , 2e1 + e2 } ⊂ Ker(u2N ) = R4 .
Comme R4 = Ker(uN ) ⊕ Vect{e3 , e4 }, un tableau de Young de N est :
e3 e4
uN (e3 ) uN (e4 )
On conclut qu’une base de Jordan de N est (uN (e3 ), e3 , uN (e4 ), e4 ) et qu’une réduite
de Jordan semblable à N est
0 1 0 0
 

 0 0 0 0 
 
J =  .
 0 0 0 1 

0 0 0 0
Exemple 4.3.6 Soit la matrice
−2 4 5 7
 

 −1 3 4 6 
 
N =
 0 −1
.
 0 −1 

0 0 −1 −1
L’indice de nilpotence de N est r = 4 et la suite des noyaux est :
Ker(uN ) = Vect{e1 + e2 + e3 − e4 }etKer(u2N ) = Vect{e1 + 2e2 − e4 , e2 − e3 }
56 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

⊂ Ker(u3N ) = Vect{2e1 + e3 , 2e1 + e2 , 3e1 + e4 } ⊂ Ker(N 4 ) = R4 .


Puisque Vect{e3 } est un supplémentaire de Ker(N 3 ) dans R4 , un tableau de Young
de N est donné par
e3
uN (e3 )
u2N (e4 )
u3N (e4 )
Il s’ensuit que (u3N (e3 ), u2N (e3 ), uN (e3 ), e3 ) est une base de Jordan de N et qu’une
réduite de Jordan semblable à N est
0 1 0 0
 

 0 0 1 0 
 
J =  0 0
.
 0 1 

0 0 0 0

4.3.2 Réduction de Jordan des endomorphismes scindés


On suppose maintenant que u est scindé de polynôme caractéristique
r
Y
χu (X) = (X − λk )m(λk ) ,
k=1

où les λk sont deux à deux distincts. Le théorème suivant donne le résultat essentiel
de cette section.
Théorème 4.3.2 Il existe une base de E dans laquelle la matrice de u est une
matrice réduite de Jordan. Deux matrices réduites de Jordan représentant u sont
ègales à l’ordre près de blocs de Jordan.
Démonstration.
Pour tout k ∈ {1, . . . , r}, soit Fk le sous espace caractéristique de u associé à la
valeur propre λk et soit uk l’endomorphisme induit par u sur Fk . On considère
ensuite l’endomorphisme nilpotent nk = uk − IdFk . D’après le théorème 4.3.1, il
existe une base Bk de Fk dans laquelle la matrice de nk est une matrice réduite de
Jordan :
diag(Jh1 (λk ) (0), . . . , Jhpk (λk ) (0)).
Donc la matrice de u dans la base B réunion des bases Bk est la matrice diagonale
par blocs diag(A1 , . . . , Ar ) où Ak est de la forme :
diag(Jh1 (λk ) (λk ), . . . , Jhpk (λk ) (λk )).
Si une matrice réduite de Jordan représente u dans une autre base, la matrice
diagonale par blocs formée des matrices de Jordan de valeur propre λk représente
4.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 57

l’endomorphisme induit uk . On se ramène au théorème précédent sur les endomor-


phismes nilpotents en considérant les endomorphismes nilpotents nk . ♣
Une base de E dans laquelle la matrice de u est une matrice réduite de Jordan
sera dite une base de Jordan de u. Jordaniser un endomorphisme scindé c’est
déterminer une base de Jordan de cet endomorphisme. Pour les matrices, jordaniser
une matrice revient à jordaniser l’endomorphisme canoniquement associé.

Exemples de jordanisation de matrices


Exemple 4.3.7 Soit la matrice
 
0 0 1
 
 2
A= 2 −1 
.
−1 0 −2

On a χA (X) = (X + 1)2 (X − 2) donc A admet deux valeurs propres λ1 = −1


(double) et λ2 = 2 (simple). On vérifie que l’endomorphisme induit par uA + Id
sur le sous espace caractéristique F−1 est nilpotent d’indice r = 2. Ensuite, on
détermine la suite des noyaux

Ker(uA + Id) = Vect{−e1 + e2 + e3 } ⊂ F−1 = Vect{−e1 + e2 , e3 }.

Comme e3 ∈ F−1 \Ker(uA + Id), alors la famille ((uA + Id)(e3 ), e3 ) est une base
de F−1 . D’autrepart, le sous espace caractéristique F2 coincide avec le sous es-
pace propre E2 et admet comme base le vecteur e2 . On conclut que la famille
((uA +Id)(e3 ), e3 , e2 ) constitue une base de Jordan de A et qu’une réduite de Jordan
semblable à A est  
−1 1 0
 
J = 0 −1 0 .

0 0 2
Exemple 4.3.8 Soit la matrice
 
−1 −1 1
 
 0
A= 0 −1 
.
1 2 −2

Son polynôme caractéristique est χA (X) = (X + 1)3 . Donc A admet une seule
valeur propre et par suite un seul sous espace caractéristique F−1 . D’autrepart,
l’endomorphisme (uA + Id) est nilpotent d’indice r = 3 et après les calculs, on
obtient la suite des noyaux :

Ker(uA +Id)) = Vect{−e1 +e2 +e3 } ⊂ Ker(uA +Id)2 = Vect{−e1 +e2 , e3 } ⊂ F−1 = R3 .
58 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Comme
e1 ∈ F−1 \Ker(uA + Id)2 ,
alors la famille
((uA + Id)2 (e1 ), (uA + Id)(e1 ), e1 )
est une base de Jordan de A. De plus, une réduite de Jordan de A est
 
−1 1 0
 
J = 0 −1 1  .

0 0 −1

Exemple 4.3.9 Soit la matrice


 
3 0 1
 
A=
 −1 2 −1 .

−1 0 1

On a χA (X) = (X − 2)3 , donc A admet une seule valeur propre λ = 2. On vérifie


que l’endomorphisme uA − 2Id est nilpotent d’indice r = 2. Après les calculs, on
obtient la suite :

Ker(uA − 2Id) = Vect{−e1 + e3 , e2 } ⊂ Ker(uA − 2Id)2 = F2 = R3 .

Puisque le vecteur e1 ∈ F2 \Ker(uA − 2Id) et la famille ((uA − 2Id)(e1 ), e2 ) forme


une base de Ker(uA − 2Id), une base de Jordan est ((uA − 2Id)(e1 ), e1 , e2 ). Une
réduite de Jordan semblable à A est
 
2 1 0
 
J =  0 2 0 .

0 0 2

Exemple 4.3.10 Soit la matrice


1 −4 −3 −5
 

 −4 8 10 15
 

A=
 2 −5 −5 −7
.

 
1 −2 −3 −5

On a χA (X) = (X − 2)(X + 1)3 . On montre que l’endomorphisme induit sur F−1


est nilpotent d’indice r = 3 et que la suite des noyaux est comme suit :

Ker(uA +Id) = Vect{e1 +e2 +e3 −e4 } ⊂ Ker(uA +Id)2 = Vect{e1 +2e2 −e4 , e2 −e3 } ⊂ F−1 = Ker(uA +Id
4.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 59

Comme 2e1 + e3 ∈ F−1 \Ker(uA + Id)2 , la famille


((uA + Id)2 (2e1 + e3 ), (uA + Id)(2e1 + e3 ), 2e1 + e3 )
forme une base de F−1 . D’autrepart, le sous espace caractéristique associé à la
valeur propre 2 est F2 = Vect{e1 − e2 + e3 }. Il s’ensuit donc qu’une base de Jordan
de A est
((uA + Id)2 (2e1 + e3 ), (uA + Id)(2e1 + e3 ), 2e1 + e3 , e1 − e2 + e3 ).
Enfin une réduite de Jordan de A est
−1 1 0 0
 

 0 −1 1 0 
 
J =  .
 0 0 −1 0 

0 0 0 2
Exemple 4.3.11 Soit la matrice
5 0 2 0
 

 7 4 8 1 
 
A=
 −4
.
 0 −1 0 

−5 −1 −6 2
On a χA (X) = (X −3)3 (X −1). On vérifie que l’endomorphisme induit par uA −3Id
sur F3 est nilpotent d’indice r = 2 et qu’on a
Ker(uA −3Id) = Vect{e1 +e2 −e3 , e2 −e4 } ⊂ F3 = Ker(uA −3Id)2 = Vect{−e1 +e3 , e2 , e4 }.
Puisque e2 ∈ F3 \Ker(uA − 3Id) et que ((uA − 3Id)(e2 ), e1 + e2 − e3 ) forme une base
de Ker(uA − 3Id), il vient que
((uA − 3Id)(e2 ), e2 , e1 + e2 − e3 )
forme une base de F3 . D’autrepart, le sous espace F1 est engendré par e1 + 4e2 −
2e3 − 3e4 . On conclut que
((uA − 3Id)(e2 ), e2 , e1 + e2 − e3 , e1 + 4e2 − 2e3 − 3e4 )
forme une base de Jordan de A. Enfin une réduite de Jordan est
3 1 0 0
 

 0 3 0 0 
 
J = 0 0
.
 3 0  
0 0 0 1
60 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Exemple 4.3.12 Soit la matrice


1 −1 0 1
 

 −4 7 9 13 
 
A=
 2 −7 −7 −11  .

 
1 1 0 1

Son polynôme caractéristique est χA (X) = (X + 1)2 (X − 2)2 . On vérifie que


Ker(uA +Id) = Vect{e1 +e2 +e3 −e4 } ⊂ Ker(uA +Id)2 = Vect{e1 +2e2 −e4 , e3 −e4 }.
Puis on montre que
e1 + 2e2 − e4 ∈ F−1 \Ker(uA + Id)
et que
((uA + Id)(e1 + 2e2 − e4 ), e1 + 2e2 − e4 )
forme une base de F−1 . D’autrepart, le sous espace caractéristique associé à la
valeur propre 2 est
F2 = Ker(uA − 2Id) = Vect{e1 − e2 + e3 , 2e1 − e2 + e4 }.
Il s’ensuit qu’une base de Jordan est
((uA + Id)(e1 + 2e2 − e4 ), e1 + 2e2 − e4 , e1 − e2 + e3 , 2e1 − e2 + e4 ).
D’où une réduite de Jordan de A est
−1 1 0 0
 

 0 −1 0 0 
 
J = .
 0 0 2 0 

0 0 0 2
Exemple 4.3.13 Soit la matrice
−2 2 3 4
 

 −1 1 3 4 
 
A=
 −1
.
 2 2 4 

1 −2 −3 −5

On a χA (X) = (X + 1)4 . On montre que l’endomorphisme induit par uA + Id sur


F−1 est nilpotent d’indice r = 2. Puis on calcue la suite des noyaux
Ker(uA + Id) = Vect{2e1 + e2 , 3e1 + e3 , 4e1 + e4 } ⊂ F−1 = R4 .
4.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 61

Comme e1 ∈ F−1 \Ker(uA +Id), il suffit de complèter la famille (uA +Id)(e1 ), e1 par
2e1 + e2 , 3e1 + e3 pour avoir une base de Jordan de A. On conclut qu’une réduite
de Jordan est
−1 1 0 0
 

 0 −1 0 0 
 
J = .
 0 0 −1 0  
0 0 0 −1
Exemple 4.3.14 Soit la matrice
−2 2 3 4
 

 −1 2 4 6 
 
 
 −1 1 1 2 
 
1 −2 −3 −5

On a χA (X) = (X + 1)4 et l’endomorphisme (uA + Id) est nilpotent d’indice r = 3.


On a

Ker(uA +Id) = Vect{2e3 −e4 , e1 −e2 +e3 } ⊂ Ker(uA +Id)2 = Vect{2e3 −e4 , −e2 +e3 , e1 } ⊂ F−1 = R4 .

Comme le vecteur e3 ∈ F−1 \Ker(uA + Id)2 , alors on complète la famille

((uA + Id)2 (e3 ), (uA + Id)(e3 ), e3 )

par 2e3 − e4 pour avoir la base de Jordan. Enfin une réduite de Jordan de A est
−1 1 0 0
 

 0 −1 1 0 
 
. 
 0
 0 −1 0  
0 0 0 −1
Exemple 4.3.15 Soit la matrice
0 4 5 7
 

 −1 5 4 6 
 
A=
 0 −1
.
 2 −1 

0 0 −1 1

On a χA (X) = (X − 2)4 et on vérifie que l’endomorphisme (uA − 2Id) est nilpotent


d’indice r = 4. Comme

Ker(uA − 2Id)3 = Vect{2e1 + e2 , 2e1 + e3 , 3e1 + e4 }


62 CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

et
e1 ∈ F2 \Ker(uA − 2Id)3 ,
alors la famille

((uA − 2Id)3 (e1 ), (uA − 2Id)2 (e1 ), (uA − 2Id)(e1 ), e1 )

est une base de Jordan de A. On conclut qu’une réduite de Jordan de A est

2 1 0 0
 

 0 2 1 0
 

J = 0 0 2 1
.

 
0 0 0 2
Chapitre 5

Systèmes différentiels linéaires du


premier ordre

Dans ce chapitre, on suppose que K = R ou C.

5.1 Exponentielle d’une matrice


Définition 5.1.1 Soit A ∈ Mn (K). On appelle exponentielle de A, et l’on note
exp(A) ou eA , la limite de la série convergente dans Mn (K) :

X Ak
.
k=0
k!

Remarque 5.1.1 (a) L’application exponentielle de Mn (K) dans Mn (K) qui à une
matrice A fait correspondre eA , est bien définie. En effet, la série ∞ Ak
P
k=0 k! est
normalement convergente sur toute partie bornée de Mn (K) pour des normes
bien appropriées.
(b) Lorsque n = 1 et K = R, on retrouve la définition de l’exponentielle d’un
nombre réel.
(c) L’exponentielle de la matrice nulle est la matrice identité.
(d) L’exponentielle d’une matrice nilpotente N d’indice de nilpotence r est la ma-
Nk
trice r−1
P
k=0 k! .

Proposition 5.1.1 Soit A, B ∈ Mn (K), alors :


(a) Si AB = BA, alors eA+B = eA eB = eB eA .
−1 AP
(b) Pour toute matrice inversible P ∈ Mn (K), on a eP = P −1 eA P .
(c) Si A est triangulaire d’éléments diagonaux λ1 , . . . , λn , alors eA est triangulaire
d’éléments diagonaux eλ1 , . . . , eλn .

63
64CHAPITRE 5. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE

(d) det(eA ) = etr(A) . Ainsi eA est inversible et (eA )−1 = e−A .


Démonstration.
On admet les points 2. et 3.
Lorsque χA est scindé sur K, la matrice A est trigonalisable et le point 4. découle
du point 3. On montre le cas général en admettant que tout corps est contenu dans
un corps commutatif algébriquement clos.
Pour le premier point, on en donnera une preuve dans la suite. ♣

Calcul de l’exponentielle d’une matrice Soit A une matrice de Mn (K) de


polynôme caractéristique scindé sur K.
(a) Lorsque A est diagonalisable sur K, il existe une matrice P ∈ Mn (K) inversible
telle que
λ1 0 · · · 0
 
... ...
 0 0 
 
D = P −1 AP =  . . .
 .. . . . . . ... 
0 · · · 0 λn
Comme
eλ1 0 ··· 0
 
.. ..
D

0 . . 0 
e = ,
 
.. .. .. ..
 . . . . 
λn
0 ··· 0 e
on obtient l’exponentielle de A en utilisant la relation eA = P eD P −1 .
(b) Si A n’est pas diagonalisable alors en utilisant la décomposition de Dunford,
A sécrit A = D + N , avec D diagonalisable, N nilpotente et DN = N D. Il
s’ensuit que !
r−1 k
X N
eA = eD eN = eD ,
k=0
k!
avec r est l’indice de nilpotence de N . Puisque D est diagonalisable, le calcul
de eD se fait comme précédemment. Ainsi on obtient l’exponentielle de A.
Exemple 5.1.1 Considérons la matrice réelle
 
5 3 1
A =  −3 −1 −1 
−5 −4 0
étudiée dans l’exemple ??. La décomposition de Dunford de A est A = D + N , avec
   
3 2 0 2 1 1
D=  −1 0 0  et N =  −2 −1 −1  .
−3 −3 1 −2 −1 −1
5.2. FONCTIONS VECTORIELLES 65

Comme N est nilpotente d’indice de nilpotence 2, l’exponentielle de A est eA =


eD (I3 + N ). On calcule eD en déterminant P inversible telle que
 
1 0 0
D = P  0 1 0  P −1 .
0 0 2
D’où  
e 0 0
eA = P  0 e 0  P −1 (I3 + N ).
0 0 e2

5.2 Fonctions vectorielles


Soit m ∈ N? et soit f1 , . . . , fm des fonctions d’un intervalle non vide I de R dans
K.
Définition 5.2.1 On appelle fonction vectorielle de I dans Km de fonctions coor-
données f1 , . . . , fm la fonction F de I dans Km définie par :
∀x ∈ I : F (x) = (f1 (x), . . . , fm (x)).
Exemple 5.2.1 La fonction ϕ de R dans R2 définie par
∀t ∈ R : ϕ(t) = (sin(t), cos(t))
est une fonction vectorielle.
Pour une fonction vectorielle F de fonctions coordonnées f1 , . . . , fm , on a les pro-
priétés suivantes :
(a) La fonction F est continue en x0 ∈ I si chaque fonction coordonnée est continue
en x0 . Elle est continue sur I si chaque fonction coordonnée l’est sur I.
(b) La fonction F est dérivable sur I si chaque fonction coordonnée l’est sur I.
Dans ce cas, la fonction dérivée de F est la fonction vectorielle de coordonnées
les fonctions dérivées f10 , . . . , fm
0
. Elle est de classe C k sur I si chaque fonction
coordonnée est de classe C k sur I.
(c) La fonction F est intégrable sur I si chaque fonction coordonnée est intégrable
sur I. Dans ce cas, on a
Z Z Z 
F (x)dx = f1 (x)dx, . . . , fm (x)dx .
I I I

Proposition 5.2.1 Soit n ∈ N? et A ∈ Mn (K). Alors la fonction vectorielle φ :


R → Mn (K) définie par φ(t) = etA est dérivable sur R et on a :
∀t ∈ R : φ0 (t) = Aφ(t).
66CHAPITRE 5. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE

En particulier, pour tout vecteur X ∈ Kn , la fonction vectorielle ψ : R → Kn


définie par φ(t) = etA X est dérivable sur R et on a :

∀t ∈ R : ψ 0 (t) = Aψ(t).

Démonstration.
tk Ak
Pour k ∈ N, soit fk la fonction de R dans Mn
P 0(K) donnée par f k (t) = k!
. Pour une
norme bien appropriée sur Mn (K), la série fk est normalement convergente, P donc
uniformément convergente sur tout compact [−a, a] de R. Comme
P 0 P 0 fk est
la série
simplement convergente en 0, elle est dérivable et de plus ( fk ) = fk . Donc
+∞ k−1 k +∞ k−1 k−1
tA 0
X t A X t A
(e ) = =A = AetA .
k=1
(k − 1)! k=1
(k − 1)!

Ainsi
∀t ∈ R : φ0 (t) = Aφ(t).

5.3 Systèmes différentiels linéaires à coefficients constants


Définition 5.3.1 On appelle système différentiel linéaire du premier ordre et à
coefficients constants, tout système de la forme

0
 x1 (t) = a11 x1 (t) + · · · + a1n xn (t) + b1 (t)

(S) .. .. .. .. .. .. .. .. ..
. . . . . . . . .
 x0 (t) = a x (t) + · · · + a x (t) + b (t)

n n1 1 nn n n

où les aij sont des scalaires, les xi sont des fonctions de classe C 1 d’un intervalle
non vide I de R dans K et les bi sont des fonctions continus de I dans K.
En notant A la matrice (aij ), X le vecteur (x1 , . . . , xn ) et B le vecteur (b1 , . . . , bn ),
on peut écrire le système (S) sous la forme matricielle

(S) X 0 = AX + B(t).

Le système (S) est dit homogène ou sans second membre lorsque b1 = b2 = · · · =


bn = 0. Dans la suite le système (SH ), X 0 = AX sera dit le système homogène
associé à (S).
Notons que les solutions du système (S) sont des fonctions de classe C 1 de I dans
Kn . Le théorème de Cauchy-Lipschitz assure l’existence et l’unicité des solutions
vérifiant des conditions initiales données.
Théorème 5.3.1 (Cauchy-Lipschitz)
Pour tout t0 ∈ I et tout X0 ∈ Kn , le système différentiel linéaire (S) admet une
unique solution φ de classe C 1 telle que φ(t0 ) = X0 .
5.3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COEFFICIENTS CONSTANTS 67

Pour résoudre le système (S) on commence par résoudre le système homogène


associé (SH ). Le théorème suivant donne la forme des solutions de (SH ).
Proposition 5.3.1 Soit A ∈ Mn (K). Alors
(a) L’ensemble des solutions de (SH ) est un K-espace vectoriel de dimension n.
(b) La solution φ de (SH ) vérifiant φ(0) = X0 pour un vecteur X0 ∈ Kn , est donnée
par
φ(t) = etA X ∀t ∈ R.
Démonstration.

(a) Soit E l’ensemble des solutions de (SH ). Il est évident que E est un K-espace
vectoriel. Considérons l’application ψ de E dans Kn définie par ψ(φ) = φ(0).
C’est une application linéaire et le théorme de Cauchy-Lipschitz assure que
c’est une bijection. Ceci montre que ψ est un isomorphisme ’espaces vectoriels.
D’où dim(E) = dim(Kn ) = n.
(b) Puisque φ0 (t) = Aφ(t) ∀t ∈ R, la fonction φ est une solution de (SH ). Le
théorème de Cauchy-Lipschitz montre que les solutions de (SH ) sont de cette
forme. ♣
Le théorème suivant permet d’obtenir une base de l’ensemble des solutions d’un
système homogène. Une telle base s’appelle un système fondamental de solutions.
Théorème 5.3.2 Soient A ∈ Mn (K), (X1 , . . . , Xn ) une base de Kn et φ1 , . . . , φn
sont les fonctions vectorielles définies par :

∀t ∈ R, φi (t) = etA Xi .

Alors la famille de fonctions (φ1 , . . . , φn ) est une base de l’ensemble des solutions
de (S 0 ).
Démonstration.
Il est facile de montrer que la famille (φ1 , . . . , φn ) est libre. C’est donc une base
puisque l’espace des solutions est de dimension n. ♣
Exemple 5.3.1 Déterminer la solution φ du système différentiel linéaire
 0
x = −x + y
(SH )
y 0 = 3x + y
 
1
vérifiant φ(0) = X0 = .
1
L’écriture matricielle de SH est X 0 = AX avec
   
x −1 1
X= et A = .
y 3 1
68CHAPITRE 5. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE
 
1
On sait que la solution φ de (SH ) vérifiant φ(0) = X0 = est donnée par
1

∀t ∈ R, φ(t) = etA X0 .

Puisque
3 −2t
e + 14 e2t e − 14 e−2t
1 2t
 
tA 4 4
e = ,
4
e − 34 e−2t
3 2t 1 −2t
4
e + 34 e2t
il vient
(e + e−2t )
1 2t
 
φ(t) = 2 ∀t ∈ R.
e − 12 e−2t
3 2t
2

Remarque 5.3.1 Si la fonction vectorielle φ est une solution de (S), alors les
solutions de (S) sont de la forme φ + φH , avec φH est une solution du système
homogène (SH ).
En général, on utilise une technique dite méthode de variation des constantes pour
calculer les solutions du système (S).
Proposition 5.3.2 Soit A ∈ Mn (K) et B ∈ C(I, Kn ). Alors pour tout t0 ∈ I et
X0 ∈ Kn , la solution φ du système différentiel

X 0 = AX + B(t)

vérifiant φ(t0 ) = X0 est donnée par la formule


Z t
(t−t0 )A
∀t ∈ I, φ(t) = e X0 + e(t−s)A B(s)ds.
t0

Démonstration.
D’après le théorème de Cauchy-Lipschitz, le système admet une unique solution
φ valant X0 en t0 et définie sur I tout entier. On utilise la méthode de variation
de la constante pour déterminer φ. On sait que les solutions de (SH ) sont du type
t 7→ etA Y , donc on écrit φ(t) = etA Y (t). On a

φ0 (t) − Aφ(t) = AetA Y (t) + etA Y 0 (t) − AetA Y (t) = etA Y 0 (t),

donc φ est solution de (S) si, et seulement si,

∀t ∈ I, Y 0 (t) = e−tA B(t).

Donc si, et seulement si, il existe Y0 ∈ Kn tel que


Z t
∀t ∈ I, Y (t) = Y0 + e−sA B(s)ds.
t0

Puisque Y0 = Y (t0 ) = e−t0 A φ(t0 ) = e−t0 A X0 , on en déduit la formule.


5.3. SYSTÈMES DIFFÉRENTIELS LINÉAIRES À COEFFICIENTS CONSTANTS 69

Exemple 5.3.2 Déterminer la solution φ du système différentiel linéaire (S) vé-


rifiant φ(0) = (1, −1, 0) :
 0
 x (t) = 5x(t) + 3y(t) + z(t) + sin(t)
(S) y 0 (t) = −3x(t) −y(t) −z(t) + et
 0
z (t) = −5x(t) −4y(t)

L’écriture matricielle de (S) est


   
5 3 1 sin(t)
X 0 = AX + B, avec A =  −3 −1 −1  et B =  et  .
−5 −4 0 0

On montre que
 
−et + 2tet + 2e2t 2e2t − 2et + tet tet
etA =  −2tet − e2t + et 2et − e2t − tet −tet  .
−2tet − 3e2t + 3et −3e2t + 3et − tet et − tet
Rt
En utilisant la formule ∀t ∈ I, φ(t) = etA X0 + 0
e(t−s)A B(s)ds, on obtient la
solution de (S) vérifiant φ(0) = (1, −1, 0) :

2et − 23 cos(t) − 31
 

φ(t) =  − 25 et + 67 cos(t) + 13  .
− 25 et + 65 cos(t) + 53

Remarque 5.3.2 Soit (S) le système différentiel linéaire X 0 = AX + B, avec


A ∈ Mn (K) scindée sur K. Soit P une matrice inversible telle que J = P −1 AP soit
une matrice réduite de Jordan. En faisant le changement de variables X = P Z, le
système (S) devient Z 0 = JZ +B 0 . Puisque J est une réduite de Jordan, le nouveau
système se présente d’une manière plus simple et sa résolution se ramne à résoudre
n équations différentielles linéaires du premier ordre.

Exemple 5.3.3 On considère à nouveau le système


   
5 3 1 sin(t)
X 0 = AX + B, avec A =  −3 −1 −1  et B =  et  .
−5 −4 0 0

Le polynôme caractéristique de A est χA (X) = (X − 1)2 (X − 2). On montre que


les deux sosu-espaces caractéristiques de A sont :

F1 = Vect{(uA − Id)(e3 ) = e1 − e2 − e3 , e3 } F2 = Vect{2e1 − e2 − 3e3 }


70CHAPITRE 5. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE
 
1 1 0
Donc une réduite de Jordan de A est J = P −1 AP =  0 1 0  , avec P =
  0 0 2
1 0 2
 −1 0 −1  .
−1 1 −3
Posons X = P Z, alors notre système devient Z 0 = JZ + B 0 avec
 
−sin(t) − 2et
B 0 = P −1 B =  2 sin(t) + et  .
sin(t) + et
On doit donc résoudre 3 équations différentielles linéaires du premier ordre :
 0
 z1 = z1 + z2 − sin(t) − 2 et
z0 = + z2 2 sin(t) + et
 20
z3 = 2 z3 + sin(t) + et
La résolution de ces équations se fait une par une du bas en haut.

5.4 Equations différentielles scalaires d’ordre n


Considérons les équations différentielles linéaires à coefficients constants d’ordre n
du type
(E) y (n) + an−1 y (n−1) + · · · + a0 y = b(t)
avec a0 , . . . , an−1 ∈ K et b une fonction continue d’un intervalle I de R dans K.
La proposition suivante permet de ramener l’équation (E) à un système différentiel
linéaire.
Proposition 5.4.1 La fonction ϕ ∈ C n (R, K) est solution de (E) si, et seulement
si, la fonction φ = (ϕ, ϕ0 , . . . , ϕ(n−1) ) est solution du système différentiel linéaire
du premier ordre Y 0 = AY + B avec A la transposée de la matrice compagnon du
polynôme P (X) = X n + an−1 X n−1 + · · · + a0 et B(t) = (0, . . . , 0, b(t)).
Démonstration.
Posons  
0 1 ··· ··· 0

 0 0 1 ··· 0 

A = CPt =  .. .. .. .. ..
.
 
. . . . .
 
 0 ··· ··· 0 1 
−a0 · · · · · · · · · −an−1
On a
n−1
X n−1
X
∀1 ≤ j ≤ n−2 φ0j+1 = (ϕ (j) 0
) =ϕ (j+1)
= φj+2 , φ0n (n−1) 0
= (ϕ ) =ϕ (n)
=− (i)
ai ϕ +b(t) = − ai φi+1 +b(
i=0 i=0
5.4. EQUATIONS DIFFÉRENTIELLES SCALAIRES D’ORDRE N 71

Donc, en notant Y (t) = (y(t), y 0 (t), . . . , y (n−1) (t)) et B(t) = (0, . . . , 0, b(t)), l’équation
différentielle (E) devient
Y 0 = AY + B.

Exemple 5.4.1 Résoudre l’équation différentielle linéaire y 00 + y = sin(t).


L’écriture
 matricielle de
 cette équation
 différentielle est : X 0 = AX + B, avec A =
0 1 0
et B(t) = . On montre que
−1 0 sin(t)
 
tA cos(t) sin(t)
e = .
−sin(t) cos(t)

Enfin, on obtient les solutions :


1 1
y(t) = (2α − t)cos(t) + (2β + 1)sin(t), α, β ∈ R.
2 2

Vous aimerez peut-être aussi