Vous êtes sur la page 1sur 111

1

College of Computing
School of Computer Science
Cycle préparatoire
Cours d’algèbre 2 : 1ère année
B. Sadik
A.U. 2023/2024
2

Préface
Ce cours est destiné aux élèves de la première année du cycle préparatoire de la "School of Computer
Science" de l’université Mohamed VI polytechnique de Benguerir. Il introduit les notions de base d’al-
gèbre linéaire, notamment les espaces vectoriels, les applications linéaires, le déterminant et la réduction
des endomorphismes. Pour des connaissances approfondies, on réfère aux livres [1, 2, 4, 3, 5, 7, 6].

Le premier chapitre est une introduction au calcul matriciel et à la résolution des systèmes linéaires.
On y donne les opérations sur les matrices et quelques propriétés importantes. Enfin on étudie quelques
méthodes pour la résolution des systèmes linéaires à coefficients réels ou complexes et on s’intéresse en
particulier à la méthode d’élimination de Gauss.

Dans le deuxième chapitre on introduit les premières définitions et propriétés des espaces vectoriels.
Nous y développons les résultats essentiels : sous-espaces vectoriels, famille libre, base, somme directe.

Dans le troisième chapitre on étudie les espaces vectoriels de dimension finie. On démontre l’existence
de bases et on développe la théorie de la dimension. Ensuite on donne les propriétés importantes liées à
la dimension.

Le quatrième chapitre est dédié à l’étude des applications linéaires. On donnera une importance à
la caractérisation des applications linéaires injectives, surjectives et bijectives et les conséquences immé-
diates. Le théorème du rang, très utile en algèbre linéaire, sera illustré. On développe ensuite les matrices
d’applications linéaires et le rôle important que jouent dans l’étude des applications linéaires entre espaces
vectoriels.

Dans le cinquième chapitre on introduit la notion du déterminant en développant les propriétés des
applications linéaires alternées. On définit ensuite le déterminant de matrices et d’endomorphismes puis
on donne les propriétés et les méthodes de calcul.
Les derniers chapitres sont réservés à la réduction des endomorphismes et des matrices carrées. On
étudie les polynômes d’endomorphismes, le polynôme minimal, le polynôme caractéristique, le théorème
de Cayley-Hamilton, les éléments propres, la diagonalisation d’endomorphismes et de matrices carrées,
la trigonalisation et la réduction de Jordan. Des applications importantes seront données pour montrer
l’utilité des notions étudiées : résolution des systèmes linéaires récurrents et des systèmes différentiels
linéaires.
Table des matières

1 Calcul matriciel et systèmes linéaires 5


1.1 Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Calcul de l’inverse d’une matrice par la méthode de Gauss . . . . . . . . . . . . . . 15

2 Espaces vectoriels 17
2.1 Structure d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Familles libres, liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Partie génératrice, Base d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Espaces vectoriels de dimension finie 25


3.1 Base et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Calcul de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4 Applications linéaires 31
4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3 Isomorphismes d’espaces vectoriels, automorphismes . . . . . . . . . . . . . . . . . . . . . 35
4.4 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.5 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7 Rang et trace d’une matrice, trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . 47
4.8 Formes linéaires, dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.8.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.8.2 Base antéduale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5 Déterminants 53
5.1 Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

6 Polynômes d’endomorphismes 63
6.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2 Polynôme minimal d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.3 Lemme des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

3
4 TABLE DES MATIÈRES

7 Réduction d’endomorphismes diagonalisables 71


7.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
7.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.3 Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

8 Réduction des endomorphismes scindés 85


8.1 Endomorphismes trigonalisables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
8.2 Décomposition de Dunford des endomorphismes scindés . . . . . . . . . . . . . . . . . . . 88
8.2.1 Sous-espaces caractéristiques et décomposition spectrale . . . . . . . . . . . . . . . 89
8.2.2 Décomposition de Dunford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8.3 Réduction de Jordan des endomorphismes scindés . . . . . . . . . . . . . . . . . . . . . . . 92
8.3.1 Réduction de Jordan des endomorphismes nilpotents . . . . . . . . . . . . . . . . . 92
8.3.2 Réduction de Jordan des endomorphismes scindés . . . . . . . . . . . . . . . . . . 97

9 Systèmes différentiels linéaires du premier ordre 103


9.1 Exponentielle d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
9.2 Fonctions vectorielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
9.3 Systs différentiels linéaires à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . 105
9.4 Equations différentielles scalaires d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . . . 109
Chapitre 1

Calcul matriciel et systèmes linéaires

1.1 Calcul matriciel


Dans cette section on note K un corps commutatif (en pratique c’est le corps des nombres réels ou le
corps des nombres complexes).
Soit n, p, m des entiers naturels non nuls.

1.1.1 Définitions et propriétés


Définition 1.1.1. Une matrice de type n × p à coefficients dans K est un tableau d’éléments de K
comportant n lignes et p colonnes.

Dans la suite on délimite les tableaux correspondants aux matrices par des parenthèses.
 
1 −1 2 4
Exemples 1.1.1. 1.  2 0 4 1  est une matrice de type 3 × 4 à coefficients réels.
−5 6 5 7
 
−1 2 i
2.  5 i + 2 4  est une matrice de type 3 × 3 à coefficients complexes.
0 5 7
 
1
 6 
 −5  est une matrice de type 4 × 1 à coefficients réels.
3.  

7

4. 1 −1 2 4 5 est une matrice de type 1 × 5 à coefficients réels.

On note aij le coefficient qui se situe à l’intersection de la ligne i et la colonne j. Ainsi toute matrice
de type n × p est de la forme :  
a11 a12 a13 · · · a1p
 a21 a22 a23 · · · a2p 
 
 a31 a32 a33 · · · a3p 
 
 .. .. .. .. .. 
 . . . . . 
an1 an2 an3 ··· anp
Une matrice carrée d’ordre n est une matrice avec le même nombre de lignes et de colonnes (n = p).
Une matrice de type n × 1 est dite un vecteur colonne. De même une matrice de type 1 × p est dite un
vecteur ligne.

5
6 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES

Notation 1.1.1. On note Mn,p (K) l’ensemble des matrices de type n × p à coefficients dans K. Si A est
un une matrice de Mn,p (K) on note A = (aij ), avec aij le coefficient qui se situe à l’intersection de la
ligne i et la colonne j.

Deux matrices A = (aij ) et B = (bij ) sont égales si elles sont de même type n × p et si aij = bij pour
1 ≤ i ≤ n et 1 ≤ j ≤ p.
Une matrice (aij ) ∈ Mn,p (K) dont tous les coefficients aij sont nuls s’appelle la matrice nulle de Mn,p (K).
On la note 0Mn,p (K) .
Une matrice carrée (aij ) d’ordre n telle que aii = 1 et aij = 0 lorsque i ̸= j s’appelle la matrice identité
d’ordre n. On la note In .

Exemples 1.1.2.

 
1 0
I2 =
0 1

 
1 0 0 0
 0 1 0 0 
I4 = 
 0

0 1 0 
0 0 0 1

On définit sur les matrices les opérations d’addition, de multiplication par des scalaires, de multipli-
cation et de transposition comme suit :

Addition Soit A = (aij ) et B = (bij ) deux matrices du même type n × p. La somme de A et B, que
l’on note A + B, est la matrice C = (cij ) de type n × p définie par

cij = aij + bij ∀1 ≤ i ≤ n ∀1 ≤ j ≤ p.


  
1 2 −3 2 3 −2
 4 2 0   1 2 −1 
Exemple 1.1.1. Soient les deux matrices A = 
 3 1 −3  et B =  2
   de M4,3 (R).
4 −3 
−1 0 3 1 1 3
Alors
 
3 5 −5
 5 4 −1 
A+B = 
 5 5 −6 
0 1 6

Soit A = (aij ) une matrice de type n × p. On note −A la matrice −A = (bij ), avec bij = −aij pour
1 ≤ i ≤ n et 1 ≤ j ≤ p. La matrice −A s’appelle le symétrique ou l’opposé de A.

L’ensemble Mn,p (K) muni de la loi d’addition sur les matrices admet une structure de groupe com-
mutatif. Plus précisément on a la proposition suivante :

Proposition 1.1.1. — ∀A, B, C ∈ Mn,p (K) (A + B) + C = A + (B + C).


— ∀A ∈ Mn,p (K) A + 0Mn,p (K) = 0Mn,p (K) + A.
— ∀A ∈ Mn,p (K) A + (−A) = (−A) + A = 0Mn,p (K) .
— ∀A, B ∈ Mn,p (K) A + B = B + A.
1.1. CALCUL MATRICIEL 7

Multiplication par un scalaire Soit A = (aij ) une matrice de type n × p et soit λ ∈ K. La multipli-
cation de A par λ, que l’on note λA, est la matrice C = (cij ) de type n × p définie par
cij = λaij ∀ 1 ≤ i ≤ n ∀1 ≤ j ≤ p.
 
1 2 −3 1
 4 2 0 2 
Exemple 1.1.2. Soit la matrice A =  3 1 −3 4  Alors

−1 0 3 1
 1
− 23 1
  
3 6 −9 3 2 1 2
 12 6 0 6  1  2 1 0 1 
3A =   A= 3 1

 9 3 −9 12  2 2 2 − 32 2 
1 3 1
−3 0 9 3 −2 0 2 2

Remarque 1.1.1. Si A est une matrice de Mn,p (K), alors la matrice (−1)A est égal à l’opposé de A.
C’est-à-dire (−1)A = −A.

Produit de matrices On commence par définir le produit d’un vecteur ligne de type 1 × p par un
vecteur colonne de type p × 1.
 
b11
  b21 
Définition 1.1.2. Soit U = a11 a12 ··· a1p et V =   . Le produit de U par V , que l’on
 
..
 . 
bp1
note U V , est le scalaire défini par
U V = a11 b11 + a12 b21 + · · · + a1p bp1 .
 
2
  −1 
Exemples 1.1.3. Soit U = 1 2 −2 4 et V =   3  . Alors U V = 2 − 2 − 6 + 4 = −2.

1
On définit maintenant le produit de deux matrices A et B. Pour que ce produit soit défini il faut que
le nombre de colonnes de A soit égal au nombre de lignes de B.
Définition 1.1.3. Soit A une matrice de type n × p et B une matrice de type p × m. Le produit de A
par B, que l’on note AB, est la matrice C = (cij ) de type n × m, avec cij est le produit de la i-ème ligne
de A par la j-ème colonne de B. Plus concrètement :
p
X
cij = aik bkj 1 ≤ i ≤ n 1 ≤ j ≤ m.
k=1
 
1 2 3  
 −2 0 4  1 3
Exemples 1.1.4. 1. Soit A = 
 1 −1 1  et B =
  −3 2  . Le produit AB est bien défini
2 1
−2 4 1
et la matrice AB est de type 4 × 2. On a alors :
 
1 10
 6 −2 
AB =  6
.
2 
−12 3
8 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES

Le produit BA n’est pas défini puisque le nombre de colonnes de B est différent du nombre de
lignes de A.
   
1 3 1 3
2. Soit A =  −3 2 2  et V =  2  . Le produit AV est bien défini et on a
2 1 1 −1
 
8
AV =  −7  .
7
La multiplication sur les matrices est associative mais n’est pas commutative. On a la proposition
suivante :
Proposition 1.1.2. 1. La multiplication est associative mais n’est pas commutative.
— ∀A ∈ Mn,p (K) ∀B ∈ Mp,q (K) ∀C ∈ Mq,r (K) (AB)C = A(BC).
— ∀A ∈ Mn,n (K) AIn = In A = A.
2. La multiplication est distributive par rapport à l’addition.
— ∀A ∈ Mn,p (K) ∀B, C ∈ Mp,q A(B + C) = AB + AC.
— ∀A, B ∈ Mn,p ∀C ∈ Mp,q (A + B)C = AC + BC.
   
1 2 0 1
Exemples 1.1.5. 1. Soit A = et B = .
−1 3 2 1
   
4 3 −1 3
On a AB = et BA = . Ceci montre que la multiplication des matrices n’est
6 2 1 7
pas commutative.
Définition 1.1.4. Soit A une matrice carrée d’ordre n.
1. Pour un entier naturel m, la puissance m-ème de A est définie récursivement comme suit :
(a) A0 = In .
(b) et Am = Am−1 A pour m ≥ 1.
2. Si P = a0 + a1 X + · · · + ap X p est un polynôme de K[X] alors l’évaluation de P en A (ou la valaur
de P en A) est la matrice
P (A) = a0 In + a1 A + · · · + ap Ap .
Exemple 1.1.3. Soit A la matrice réelle d’ordre 2 :
 
1 2
A=
−1 1
On a    
2 −1 4 3 −5 2
A = A =
−2 −1 −1 −5
Pour le polynôme P = 1 + X + 2X 2 + X 3 on a
 
−5 12
P (A) = I2 + A + 2A2 + A3 = .
−6 −5
On a la proposition suivante :
Proposition 1.1.3. Soit P et Q deux polynômes de K[X]. Alors :
Pour toute matrice A de Mn (K) on a
1. (P + Q)(A) = P (A) + Q(A) = Q(A) + P (A).
2. (P Q)(A) = P (A)Q(A) = Q(A)P (A).
1.1. CALCUL MATRICIEL 9

Transposition
Définition 1.1.5. Soit A = (aij ) une matrice de type n × p. On appelle transposée de A, que l’on note
AT , la matrice AT = (bij ) de type p × n et définie par

bij = aji , ∀1 ≤ i ≤ j ∀1 ≤ j ≤ p.
 
1 2 −1
 3 4 0 
Exemples 1.1.6. 1. Soit A = 
 . La transposée de A est
2 1 6 
−2 1 −3
 
1 3 2 −2
AT =  2 4 1 1 .
−1 0 6 −3

2. Soit le vecteur ligne U = 1 2 −1 2 . Alors U T est le vecteur colonne
 
1
 2 
UT = 
 −1  .

2
 
1 2 1
3. Soit A =  3 −1 0  . La transposée de A est
2 2 6
 
1 3 2
AT =  2 −1 2 .
1 0 6

Définition 1.1.6. Une matrice carrée A est symétrique si AT = A. Elle est antisymétrique si AT = −A.
 
1 2 −1
Exemples 1.1.7. 1. La matrice  2 4 0  est symétrique.
−1 0 6
 
0 2 −1
2. La matrice  −2 0 −1  est antisymétrique.
1 1 0

Proposition 1.1.4. 1. Soit A une matrice de type n × p. alors (AT )T = A.


2. Soit A et B deux matrices de type n × p. Alors (A + B)T = AT + B T .
3. Soit A une matrice de type n × p et B une matrice de type p × m. Alors (AB)T = B T AT .
Définition 1.1.7. Une matrice carrée A d’ordre n est inversible s’il existe une matrice carrée B d’ordre
n telle que AB = BA = In . On note A−1 la matrice B et on l’appelle l’inverse de A.
Exemples 1.1.8. 1. Pour tout entier naturel n ∈ N⋆ la matrice In est inversible et In−1 = In .
 
2 1
2. La matrice A = est inversible et on a
−1 2
 
−1 1 2 −1
A = .
5 1 2
10 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES
 
1 2 1
3. La matrice A =  0 1 −1  est inversible et on a
2 1 1
 
−2 1 3
1
A−1 =  2 1 −1  .
4
2 −3 −1
 
1 1 −1
4. Soit la matrice A =  2 −2 1  . On a A3 − 6A + 7I3 = 0M3,3 (K) , donc
0 1 1

1 1
A( (−A2 + 6I3 )) = ( (−A2 + 6I3 ))A = I3 .
7 7
Ceci montre que A est inversible et
 
3 2 1
1 1
A−1 = ( (−A2 + 6I3 )) =  2 −1 3 .
7 7
−2 1 4

Nous allons voir dans la suite comment caractériser les matrices inversibles et comment calculer leurs
inverses.

1.2 Résolution des systèmes linéaires


Dans tout ce chapitre, la lettre K désigne un corps commutatif (en pratique ce sera le corps des réels
R ou celui des complexes C).

1.2.1 Systèmes linéaires


Définition 1.2.1. Une équation linéaire en les variables x1 , x2 , . . . , xp à coefficients dans K est une
relation de la forme
a1 x1 + a2 x2 + a3 x3 + · · · + ap xp = b
où a1 , . . . , ap , b sont des éléments de K. Le scalaire b est le terme constant de l’équation. Un vecteur ligne
(s1 , s2 , . . . , sp ) ∈ Kp est une solution de cette équation si la relation a1 s1 + a2 s2 + . . . + ap sp = b est
vérifiée.

Définition 1.2.2. Soient n, p deux entiers positifs. Un système linéaire à coefficients dans K est la
donnée de n équations linéaires en p variables à coefficients dans K :

 a1,1 x1 + a1,2 x2 + · · · + a1,p xp = d1

 a2,1 x1 + a2,2 x2 + · · · + a2,p xp = d2

.. (1.1)


 .
an,1 x1 + an,2 x2 + · · · + an,p xp = dn

Le vecteur ligne (s1 , s2 , . . . , sp ) est une solution de ce système s’il est solution de toutes ses équations.

Remarque 1.2.1. Les variables d’un système linéaire s’appellent aussi les inconnues du système.

Résoudre un système linéaire c’est déterminer l’ensemble de ses solutions.


1.2. RÉSOLUTION DES SYSTÈMES LINÉAIRES 11

Exemples 1.2.1. 1. L’équation 2x − 3y = 1 admet une infinité de solutions. L’ensemble de ses


solutions est  
2x − 1
(x, ), x ∈ K .
3

2. Le système

2x + 2y = 1
x+y =0
n’admet pas de solutions.

Soit A = (aij ), 1 ≤ i ≤ n, 1 ≤ j ≤ p la matrice de Mn,p (K) dont les coefficients aij sont ceux du
système linéaire (1.1). Posons
   
x1 d1
 x2   d2 
X= et B =  .
   
..  ..
 .   . 
xp dn

Avec ces notations le système linéaire (1.1) devient

AX = B.
 
s1
 s2 
Ainsi résoudre (1.1) revient à déterminer tous les vecteurs colonnes S =   vérifiant AS = B.
 
..
 . 
sp

Remarque 1.2.2. Dans la suite et en terme de solution  d’un


 système linéaire on confond un vecteur
s1
 s2 
ligne (s1 , . . . , sp ) avec sa transposée le vecteur colonne  . .
 
 .. 
sp

1.2.2 Méthode de Gauss


La méthode de Gauss permet de transformer un système linéaire en un autre système qui a les mêmes
solutions et qui est facile à résoudre.

Théorème 1.2.1 (Méthode de Gauss). Si un système linéaire est transformé en un autre par l’une des
opérations suivantes :
1. une équation est échangée avec une autre
2. une équation est multipliée par une constante non nulle
3. une équation est remplacée par la somme d’elle même et une autre équation multipliée par une
constante non nulle
alors les deux systèmes ont les mêmes solutions. On dira alors que les deux systèmes sont équivalents.

Définition 1.2.3. Les trois transformations du théorème 1.2.1 s’appellent les transformations élémen-
taires, (ou simplement les transformations) de Gauss.
12 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES

Pour des raisons de simplicité on utilise la représentation matricielle d’un système linéaire. Le système
linéaire (1.1) est représenté par la matrice augmentée
 
a1,1 a1,2 ··· a1,p | d1
 a2,1 a2,2 ··· a2,p | d2 
(1.2)
 
 .. .. .. .. .. .. 
 . . . . . . 
an,1 am,2 ··· an,p | dn
Etant donné un système linéaire, On parle d’équation ou de ligne et on note la ième ligne par ℓi .

Exemple 1.2.1. Appliquons la méthode de Gauss au système suivant :



 2x + 6y − 4z = 4 ℓ1
3x + 11y − 2z = 8 ℓ2 (1.3)
5x + 16y − 7z = 12 ℓ3

La matrice augmentée de ce système est


 
2 6 −4 | 4 ℓ1
 3 11 −2 | 8  ℓ2
5 16 −7 | 12 ℓ3

On multiplie la première ligne par 21 , on obtient

1
 
1 3 −2 | 2 2 ℓ1
 3 11 −2 | 8  ℓ2
5 16 −7 | 12 ℓ3

On remplace ℓ2 par ℓ2 − 3ℓ1 et on remplace ℓ3 par ℓ3 − 5ℓ1 , ce qui donne


 
1 3 −2 | 2
 0 2 4 | 2  ℓ2 − 3ℓ1
0 1 3 | 2 ℓ3 − 5ℓ1

1
On multiplie la deuxième ligne du système obtenu par 2 et on retranche son opposé de la troisième ligne,
on aura

 
1 3 −2 | 2
1
 0 1 2 | 1  2 ℓ2 (1.4)
0 0 1 | 1 ℓ3 − 12 ℓ2

Le système correspondant à cette représentation matricielle est



 x + 3y −2z = 2
y + 2z = 1
z = 1

La solution est maintenant facile à calculer. La troisième ligne montre que z = 1. On substitue le résultat
dans la deuxième ligne et on obtient y = −1 et finalement on obtient x = 7.

Etudions un autre exemple


1.2. RÉSOLUTION DES SYSTÈMES LINÉAIRES 13

Exemple 1.2.2. Soit le système



 2x − 2y + 2z = 0 ℓ1
2x + 2y + −2z = 0 ℓ2
y − z = 2 ℓ3

La matrice augmentée du système est


 
2 −2 2 | 0 ℓ1
 2 2 −2 | 0  ℓ2
0 1 −1 | 2 ℓ3

On remplace ℓ2 par ℓ2 − ℓ1 , ce qui donne


 
2 −2 2 | 0
 0 4 −4 | 0 
ℓ2 − ℓ1
0 1 −1 | 2
1
On multiplie la deuxième ligne du système obtenu par 4 et on retranche son opposé de la troisième ligne,
on aura

 
2 −2 2 | 0
1
 0 1 −1 | 0  4 ℓ2
0 0 0 | 2 ℓ3 − 41 ℓ2

Le système correspondant à cette représentation matricielle est



 2x − 2y +2z = 0
y − z = 0
0 = 2

La troisième équation est contradictoire et donc le système n’admet pas de solutions.

Dans un système linéaire, on peut avoir plus d’équations que d’inconnues ou moins d’équations que
d’inconnues.

Exemple 1.2.3. Le système 


 2x + 4y = −4
x − 3y = 3
−x + 2y = −2

a trois équations et deux inconnues. Appliquons la méthode de Gauss à ce système.

La matrice augmentée du système est comme suit :


 
2 4 | −4 ℓ1
 1 −3 | 3  ℓ2
−1 2 | −2 ℓ3

On multiplie la première ligne par 1/2 :


1
 
1 2 | −2 2 ℓ1
 1 −3 | 3  ℓ2
−1 2 | −2 ℓ3
14 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES

On remplace ℓ2 par ℓ2 − ℓ1 et on remplace ℓ3 par ℓ3 + ℓ1 :


 
1 2 | −2
 0 −5 | 5  ℓ2 − ℓ1
0 4 | −4 ℓ3 + ℓ1
1
On multiplie ℓ2 par 5 et ℓ3 par − 41 :
 
1 2 | −2
 0 −1 1
| 1  5 ℓ2
0 −1 | 1 − 14 ℓ3
La troisième équation du système correspondant est équivalente à la deuxième équation. On dit qu’elle
est redondante et on peut l’éliminer du système. Notre système est transformé en ce qui suit :

x + 2y = −2
−y = 1
On obtient donc y = −1 et x = 0.
Un système linéaire peut avoir une infinité de solutions comme le montre l’exemple suivant :
Exemple 1.2.4. Soit le système

 2x − 2y + 2z + w = 1
2x + 2y − 2z − w = 0
x + y − z + w = 1

La matrice augmentée associée est


 
2 −2 2 1 | 1 ℓ1
 2 2 −2 −1 | 0  ℓ2
1 1 −1 1 | 1 ℓ3

1
 
1 −1 1 1/2 | 1/2 2 ℓ1
1
 1 1 −1 −1/2 | 0  2 ℓ2
1 1 −1 1 | 1 ℓ3

 
1 −1 1 1/2 | 1/2
 0 2 −2 −1 | −1/2  ℓ2 − ℓ1
0 2 −2 1/2 | 1/2 ℓ3 − ℓ1

 
1 −1 1 1/2 | 1/2
1
 0 1 −1 −1/2 | −1/4  2 ℓ2
0 0 0 3/2 | 1 ℓ3 − ℓ2
Le système correspondant à cette représentation matricielle est

 x − y + z + 12 w = 1

2
+ y − z − 2 w = − 14
1
3
2w = 1

L’ensemble des solutions du système est égal à l’ensemble {(1/4, z + 1/12, z, 2/3) : z ∈ K}.
1.2. RÉSOLUTION DES SYSTÈMES LINÉAIRES 15

1.2.3 Calcul de l’inverse d’une matrice par la méthode de Gauss


Inverse d’une matrice Soit
 
a1,1 a1,2 ··· a1,n
 a2,1 a2,2 ··· a2,n 
A=
 
.. .. 
 . . 
an,1 an,2 ··· an,n
une matrice inversible d’ordre n et à coefficients dans K.
Pour calculer l’inverse de A on augmente A par la matrice identité et on applique la méthode de Gauss
à la matrice obtenue jusqu’à transformer A en In . La matrice obtenue à la place de la matrice identité
est l’inverse de A.
L’exemple suivant illustre cette méthode.
Exemple 1.2.5. Appliquons la méthode de Gauss pour calculer l’inverse de la matrice
 
1 2 −2
A= 2 2 0 
2 −2 4
On augmente la matrice A par I3 , on obtient :
 
1 2 −2 | 1 0 0
 2 2 0 | 0 1 0 
2 −2 4 | 0 0 1
On applique maintenant la méthode décrite dans le paragraphe ci-dessus :
 
1 2 −2 | 1 0 0
 0 −2 4 | −2 1 0  on remplace ℓ2 par ℓ2 − 2ℓ1 et ℓ3 par ℓ3 − 2ℓ1
0 −6 8 | −2 0 1

 
1 2 −2 | 1 0 0
 0 −2 4 | −2 1 0  on remplace ℓ3 par ℓ3 − 3ℓ2
0 0 −4 | 4 −3 1

 
1 2 −2 | 1 0 0
 0 1 −2 | 1 − 21 0  on divise ℓ2 par −2 et ℓ3 par −4
3
0 0 1 | −1 4 − 41

 
1 2 −2 | 1 0 0
 0 1 0 | −1 1 − 21  on remplace ℓ2 par ℓ2 + 2ℓ3
3
0 0 1 | −1 4 − 41

− 21 1
 
1 0 0 | 1 2
 0 1 0 | −1 1 − 12  on remplace ℓ1 par ℓ1 − 2ℓ2 + 2ℓ3
3
0 0 1 | −1 4 − 41
Ainsi l’inverse de A est
− 21 1
 
1 2
A−1 =  −1 1 − 12 
3
−1 4 − 14
16 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES
Chapitre 2

Espaces vectoriels

Dans tout ce chapitre, K est un corps commutatif.

2.1 Structure d’espaces vectoriels


Soit E un ensemble non vide. Une loi sur E est dite une loi de composition interne dans E.
Une loi de composition externe sur E est une application de K × E dans E.

Exemple 2.1.1. 1) La multiplication d’un polynôme par un réel est une loi de composition externe
sur R[X].
2) Soit E = R3 . L’application notée · de R × R3 dans R3 définie par α · (x, y, z) = (αx, αy, αz) est
une loi de composition externe sur R3 .

Définition 2.1.1. On appelle espace vectoriel sur K (ou K-espace vectoriel) un ensemble non vide E
muni de deux lois :
1. Une loi de composition interne, notée +, telle que (E, +) soit un groupe commutatif.
2. Une loi de composition externe, notée ·, telle que :
i) ∀ α, β ∈ K ∀ v ∈ E (α + β) · v = α · v + β · v
ii) ∀ α ∈ K ∀ v, w ∈ E α · (v + w) = α · v + α · w
iii) ∀ α, β ∈ K ∀ v ∈ E α · (β · v) = (αβ) · v
iv) ∀ v ∈ E 1 · v = v.
L’espace vectoriel E muni de ces deux lois est noté (E, +, ·) ou simplement E lorsqu’il n’y a pas de
confusion. Le symétrique w d’un élément v de E pour + est noté −v.

Remarque 2.1.1. 1) Les éléments de E s’appellent des vecteurs et ceux de K s’appellent des sca-
laires.
2) Lorsqu’il n’y a pas de confusion, l’élément neutre 0E pour la loi + est noté simplement 0.

Exemple 2.1.2. 1. Soit (E, +, ·) un K-espace vectoriel et soit X un ensemble non vide. Le groupe
(F(X, E), +) des applications de X dans E, est un K-espace vectoriel, avec la loi externe, notée
aussi ·, définie par

∀α ∈ R, ∀f ∈ F(R, R), ∀x ∈ R : (α · f )(x) = α · f (x).

2. Pour tout entier positif n, le groupe (Kn , +) est un K-espace vectoriel, avec la loi externe définie
par
∀α, a1 , a2 , . . . , an ∈ K : α · (a1 , a2 , . . . , an ) = (αa1 , αa2 , . . . , αan ).

17
18 CHAPITRE 2. ESPACES VECTORIELS

3. L’anneau des polynômes K[X] est un K-espace vectoriel pour les deux lois :
i) La loi interne définie par :

∀P, Q ∈ K[X] : (P + Q)(X) = P (X) + Q(X).

ii) La loi externe définie par :

∀α, ∀P ∈ K[X] : (α · P )(X) = αP (X).

4) Soit E = Mn,p (K), où n et p sont des entiers naturels positifs. Muni de l’addition + de matrices
et de la multiplication par des scalaires , E est un K-espae vectoriel.
i) La loi interne + est définie par :

∀ A = (aij ), B = (bij ) ∈ E : A + B = (cij ) où cij = aij + bij .

ii) La loi externe . est définie par :

∀ α ∈ K, A = (aij ) ∈ E : α · A = (cij ) où cij = αaij .

5) Si E et F sont des K-espaces vectoriels alors le produit E × F muni des deux lois suivantes est un
K-espace vectoriel.
i) La loi interne définie par :

∀(x, y), (x′ , y ′ ) ∈ E × F : (x, y) + (x′ , y ′ ) = (x + x′ , y + y ′ ).

ii) La loi externe définie par :

∀α ∈ K, (x, y) ∈ E × F : α · (x, y) = (αx, αy).


Les propriétés suivantes se déduisent de la définition d’un K-espace vectoriel E :
1) Pour tout vecteur v de E, on a 0.v = 0E .
2) Pour tout scalaire α de K, on a α.0E = 0E .
3) ∀ α ∈ K ∀ v ∈ E (α · v = 0E ⇔ α = 0K ou v = 0E )
4) ∀ α, β ∈ K ∀ v ∈ E (α − β) · v = α · v − β · v. En particulier (−1) · v = −v.
5) ∀ α ∈ K ∀ v, w ∈ E α · (v − w) = α · v − α · w.

2.2 Sous-espaces vectoriels


Dans toute cette section la lettre E désigne un K-espace vectoriel.
Définition 2.2.1. Une partie F de E est un sous-espace vectoriel de E si
1. F est non vide,
2. (F, +, ·) est un K-espace vectoriel.
La proposition suivante donne une caractérisation simple d’un sous-espace vectoriel.
Proposition 2.2.1. Une partie F de E est un sous-espace vectoriel de E si et seulement si :
1. F est non vide,
2. F est stable pour la loi + : ∀ v, w ∈ F v + w ∈ F ,
3. F est stable pour la loi · : ∀ α ∈ K ∀ v ∈ F α · v ∈ F .
Démonstration. 1. =⇒) Par hypothèse F est non vide. Soit α ∈ K v, w ∈ F . Comme F est un
K-espace vectoriel on a v + w ∈ F et α · v ∈ F .
2.2. SOUS-ESPACES VECTORIELS 19

2. ⇐=) Pour montrer l’implication inverse, les seuls points à vérifier sont les points ii) et iii) de la
loi interne + (voir Définition 2.1.1).
Prenons α = 0 et v ∈ F , alors α · v = 0E ∈ F et donc F possède un élément neutre pour la loi +.
Soit v ∈ F , par définition de E il existe w ∈ E tel que v + w = w + v = 0E , donc w = −v =
(−1) · v ∈ F .
Comme F est non vide, (F, +, ·) est un K-espace vectoriel et donc F est un sous-espace vectoriel
de E. ♣
On peut résumer ce dernier résultat sous la forme suivante :
Corollaire 2.2.1. Une partie F de E est un sous-espace vectoriel de E si et seulement si :
1. F est non vide,
2. ∀ α ∈ K ∀ v, w ∈ F α · v + w ∈ F .
Exemples 2.2.1. 1) Le singleton {0E } et E sont des sous-espaces vectoriels de E.
2) L’ensemble des fonctions continues de R dans R est un sous-espace vectoriel de F(R, R).
3) L’esnemble des polynômes de K[X] de degré inférieur ou égal à un entier n est un sous-espace
vectoriel de K[X]. On le note Kn [X].
Proposition 2.2.2. Soit (Fi )i∈I une famille de sous-espaces vectoriels de E. Alors

F = ∩i∈I Fi

est un sous-espace vectoriel de E.


Démonstration. Comme 0E ∈ Fi pour tout i ∈ I, 0E ∈ F . Alors F est non vide.
Soient α ∈ K et u, v ∈ F . On a u, v ∈ Fi pour tout i ∈ I. Donc αu + v ∈ Fi ∀i ∈ I puisque Fi est un
sous-espace vectoriel. Il s’ensuit que αu + v ∈ F . Par le corollaire 2.2.1, F est un sous-espace vectoriel de
E. ♣
Remarque 2.2.1. La réunion de deux sous-espaces vectoriels n’est pas en général un sous-espace vecto-
riel. Soient
F = {(x, y) ∈ R2 : x = y}
et
G = {(x, y) ∈ R2 : x = −y}
Il est facile de vérifier que F et G sont des sous-espaces vectoriels de R2 . Pourtant F ∪ G n’est pas un
sous-espace vectoriel de R2 car (2, 2) ∈ F et (2, −2) ∈ G mais (4, 0) = (2, 2) + (2, −2) ̸∈ F ∪ G.
Soit (v1 , . . . , vn ) une famille finie d’éléments de E. Une combinaison linéaire des éléments de cette
famille est tout élément v de E de la forme
n
X
v = α1 · v1 + α2 · v2 + · · · + αn · vn = αi · vi où α1 , α2 , . . . , αn ∈ K.
i=1

Si (vi )i∈I est une famille quelconque de E on dit qu’un élément v de E est combinaison linéaire de la
famille (vi )i∈I s’il existe une partie finie J de I et une famille (λj )j∈J de scalaires telles que :
X
v= λ j vj .
j∈J

Un élément v de E est une combinaison linéaire des éléments d’une partie V de E s’il est combinaison
linéaire de la famille (v)v∈V .
On convient que X
λv = 0E .
v∈∅
20 CHAPITRE 2. ESPACES VECTORIELS

Exemple 2.2.1.
1) Dans R3 le vecteur (2, 0, 1) est une combinaison linéaire des deux vecteurs (1, 0, 0) et (0, 0, 1). En effet

(2, 0, 1) = 2(1, 0, 0) + (0, 0, 1).

2) Dans R[X], un polynôme de degré inférieur ou égal à un entier n est une combinaison linéaire des
éléments de la famille (1, X, X 2 , . . . , X n ).
Le résultat suivant est évident.
Proposition 2.2.3. Soit V une partie de E. L’intersection de tous les sous-espaces vectoriels de E qui
contiennent V est un sous-espace vectoriel de E.
On l’appelle sous-espace vectoriel engendré par V et on le note Vect(V ).
Remarque 2.2.2. Le sous-espace vectoriel engendré par une partie V de E est le plus petit sous-espace
vectoriel de E contenant V . Autrement dit, c’est un sous-espace vectoriel de E inclu dans tout autre
sous-espace vectoriel de E qui contient V .
Exemples 2.2.2. 1. Vect(∅) = {0E }.
2. Si F est un sous-espace vectoriel de E alors Vect(F ) = F .
Proposition 2.2.4. Soit V une partie d’un K-espace vectoriel E. Alors Vect(V ) est l’ensemble des
combinaisons linéaires des éléments de V .
Démonstration. Soit P F l’ensemble des combinaisons linéaires des éléments de V . Si V = ∅ alors par
convention
Pp 0 E = Pqv∈∅ λv ; sinon 0E = 0.v pour tout v ∈ V . Ceci montre que 0E ∈ F . Soient u =
i=1 αi v i et v = j=1 βj wj , avec

α1 , . . . , αp , β1 , . . . , βq ∈ K, v1 , . . . , vp , w1 , . . . , wq ∈ V.

Alors pour tout λ ∈ K on a


p
X q
X
λu + v = λαi vi + βj wj
i=1 j=1

est une combinaison linéaire des éléments de V . Il s’ensuit que F est un sous-espace vectoriel de E d’après
le corollaire 2.2.1.
Par construction F est inclu dans tout sous-espace vectoriel de E contenant V , alors F ⊂ Vect(V ). Mais
F contient V donc Vect(V ) ⊂ F . D’où F = Vect(V ). ♣
Exemples 2.2.3. 1. Dans R3 , soit v1 = (1, 0, 0)) et v2 = (0, 1, 1), alors

Vect(v1 , v2 ) = {α · v1 + β · v2 : α, β ∈ R}
= {(α, 0, 0) + (0, β, β) : α, β ∈ R}
= {(α, β, β) : α, β ∈ R}

2. Dans K[X], soit V la famille (1, X, . . . , X n ). Alors

Vect(V ) = {a0 + a1 X + · · · + an X n : a0 , a1 , . . . , an ∈ K} = Kn [X].

Proposition 2.2.5. Soit F et G deux sous-espaces vectoriels de E. L’ensemble

F +G = {v ∈ E /∃ v1 ∈ F ∃ v2 ∈ G : v = v1 + v2 }
= {v1 + v2 /v1 ∈ F, v2 ∈ G}

est un sous-espace vectoriel de E. On l’appelle somme de F et G.


2.2. SOUS-ESPACES VECTORIELS 21

Remarque 2.2.3. Si F et G sont deux sous-espaces vectoriel de E alors

F + G = Vect(F ∪ G).

Définition 2.2.2. La somme de deux sous-espaces vectoriels F et G est une somme directe si tout
élément de F + G se décompose d’une façon unique comme somme d’un élément de F et d’un élément
de G. Autrement dit,
∀u ∈ F + G ∃!(v, w) ∈ F × G : u = v + w.
Dans ce cas on écrit F ⊕ G au lieu de F + G.
Proposition 2.2.6. Soit F et G deux sous-espaces vectoriels de E. La somme F + G est directe si et
seulement si F ∩ G = {0}.
Démonstration. 1. =⇒) Soit v ∈ F ∩ G, alors v = v + 0 = 0 + v est une écriture de v comme somme
d’éléments de F et G. Comme la somme est directe on a nécessairement v = 0.
2. ⇐=) Soit v ∈ F + G, montrons qu’il se décompose d’une manière unique comme somme d’un
élément de F et d’un élément de G. Supposons que

v = v1 + v2 = w1 + w2 avec v1 , w1 ∈ F v2 , w2 ∈ G

Alors v1 − w1 = w2 − v2 est un élément de F ∩ G. Comme F ∩ G = {0} on a v1 − w1 = w2 − v2 = 0


et par suite v1 = w1 et v2 = w2 . ♣
Lorsque la somme de deux sous-espaces vectoriels F et G est directe et F + G = E, on dit que F et
G sont supplémentaires dans E.
Exemple 2.2.2. 1) Dans R3 soit v1 = (1, 0, 0) et v2 = (0, 2, 2). Montrons que la somme Vect(v1 ) +
Vect(v2 ) est directe. D’après la proposition 2.2.6, c’est équivaut à montrer que Vect(v1 )∩Vect(v2 ) =
{0}. Soit v ∈ Vect(v1 ) ∩ Vect(v2 ) alors il existe α, β ∈ R tels que v = (α, 0, 0) = (0, 2β, 2β). Donc
α = β = 0 et v = 0. La somme Vect(v1 ) + Vect(v2 ) est donc directe.
2) Soit P(R, R) (respectivement I(R, R)) l’ensemble des fonctions paires (respectivement impaires)
de R dans R. Alors
F(R, R) = P(R, R) ⊕ I(R, R).
En effet, soit f un élément de F(R, R), alors la fonction f1 définie par f1 (x) = f (x)+f 2
(−x)
est
f (x)−f (−x)
une fonction paire et la fonction f2 définie par f2 (x) = 2 est une fonction impaire. La
relation
f (x) = f1 (x) + f2 (x) ∀ x ∈ R
implique que
F(R, R) = P(R, R) + I(R, R).
Comme P(R, R) ∩ I(R, R) = {0} la somme est directe et les deux sous-espaces vectoriels P(R, R)
et I(R, R) sont supplémentaires.
On généralise aisément la somme de sous-espaces vectoriels à un nombre fini de sous-espaces vectoriels
de E. Si F1 , F2 , . . . , Fr est une famille de sous-espaces vectoriels de E l’ensemble
X
Fi = F1 + F2 + · · · + Fr = {x1 + x2 + · · · + xr ; x1 ∈ F1 ; x2 ∈ F2 ; . . . ; xr ∈ Fr }
1≤i≤r

est un sous-espace vectoriel de E, appelé somme des sous-espaces vectoriels F1 , F2 , . . . , Fr .


On dit que F1 , F2 , . . . , Fr sont en somme directe si tout élément v de F1 + F2 + · · · + Fr s’écrit d’une
manière et d’une seule sous la forme
v = v1 + v2 + · · · + vr
avec v1 ∈ F1 , v2 ∈ F2 , . . . , vr ∈ Fr . Dans ce cas on écrit F1 ⊕ F2 ⊕ · · · ⊕ Fr .
22 CHAPITRE 2. ESPACES VECTORIELS

2.3 Familles libres, liées


Dans toute la section E est un K-espace vectoriel.
Définition 2.3.1. Une famille (v1 , . . . , vp ) d’éléments de E est dite libre si

∀ α1 , . . . , αp ∈ K α1 · v1 + α2 · vp + · · · + αp · vp = 0E =⇒ α1 = α2 = · · · = αp = 0.

On dira aussi que les vecteurs v1 , . . . , vp sont linéairement indépendants.


La famille (v1 , . . . , vp ) est dite liée si elle n’est pas libre, c’est à dire si

∃ α1 , . . . , αp ∈ K α1 · v1 + α2 · vp + · · · + αp · vp = 0E et ∃ i ∈ {1, . . . , p} αi ̸= 0.

On dira aussi que les vecteurs v1 , . . . , vp sont linéairement dépendants.


Exemple 2.3.1. 1) La famille (0E ) est liée. Plus généralement, toute famille contenant 0E est une
famille liée.
2) Soient v1 = (1, 2, 0), v2 = (1, 1, 1) et v3 = (2, 1, −1).
Soient α1 , α2 , α3 ∈ R tels que α1 v1 + α2 v2 + α3 v3 = 0. Cette relation nous conduit à la résolution
du système linéaire suivant :

 α1 + α2 + 2α3 = 0
2α1 + α2 + α3 = 0
α2 − α3 = 0

qui admet l’unique solution (0, 0, 0). Donc les vecteurs v1 , v2 et v3 sont linéairement indépendants
dans R3 .
3) Soient f1 , f2 et f3 trois fonctions de R dans R définies comme suit :

∀ x ∈ R : f1 (x) = cos2 (x), f2 (x) = sin(2x), f3 (x) = 1

La relation sin(2x) = 2cos2 (x) − 1 implique que la famille (f1 , f2 , f3 ) est une famille liée dans le
R-espace vectoriel F(R, R).
Définition 2.3.2. 1. Soit I un ensemble. Une famille (vi )i∈I de vecteurs de E est libre si pour tout
sous-ensemble fini J de I, la famille finie (vj )j∈J est libre. Si la famille (vi )i∈I n’est pas libre, on
dit qu’elle est liée.
2. Une partie V de E est libre si la famille (v)v∈V est une famille libre. Elle est liée dans le cas
contraire.
Exemples 2.3.1. 1. L’ensemble ∅ est une partie libre.
i
2. La famille (X )i∈N est une famille libre de K[X].
3. Pour λ ∈ R, on définit la fonction fλ par

∀x ∈ R f (x) = eλx

Alors la famille (fλ )λ∈R est une famille libre.


Proposition 2.3.1. 1. Soit v un vecteur de E. La famille (v) est libre si et seulement si v ̸= 0E .
2. Une famille contenue dans une famille libre est libre.
3. Une famille qui contient une famille liée est liée.
4. La famille (vi )i∈I est libre si et seulement si tout élément de Vect{(vi )i∈I } s’écrit d’une manière
unique comme combinaison linéaire des vecteurs (vi )i∈I .
2.4. PARTIE GÉNÉRATRICE, BASE D’UN ESPACE VECTORIEL 23

5. Soit (vi )i∈I une famille libre. Alors

∀ v ∈ E, v ∈ Vect{(vi )i∈I } ⇐⇒ {v, (vi∈I )} est liée.


Pn
Démonstration. Montrons le dernier point. Soit v ∈ Vect{(vi )i∈I }, alors v = k=1 αk vk ce qui montre que
la famille {v, (vi∈I )} est liée. Réciproquement, si (v1 , . . . , vn , v) est liée alors il existe α1 , . . . , αn , αn+1 ∈ K
non tous nuls tels que
α1 v1 + α2 v2 + · · · + αn vn + αn+1 v = 0.
Si αn+1 = 0 alors α1 v1 + α2 v2 + · · · + αn vn et donc α1 = . . . , αn = 0, ce qui est contradictoire. Donc
αn+1 ̸= 0 et
1
v=− (α1 v1 + α2 v2 + · · · + αn vn ) ∈ Vect{(vi )i∈I }.
αn+1

On peut caractériser une famille liée et finie par ce qui suit :
Proposition 2.3.2. Soit p ≥ 2 un entier. Une famille (v1 , . . . , vp ) d’éléments de E est liée si et seulement
si l’un de ses vecteurs, soit vi , est combinaison linéaire des éléments de la famille (v1 , . . . , vi−1 , vi+1 , . . . , vp ).

Démonstration. =⇒) Supposons que la famille (v1 , . . . , vp ) est liée, il existe des scalaires α1 , . . . , αp non
tous nuls tels que
α1 · v1 + α2 · vp + · · · + αp · vp = 0E .
Soit i tel que αi ̸= 0 alors
−α1 −α2 −αi−1 −αi+1 −αp
vi = · v1 + · v2 + · · · + · vi−1 + · vi+1 + · · · + · vp .
αi αi αi αi αi

Le vecteur vi est donc une combinaison linéaire des éléments de la famille (v1 , . . . , vi−1 , vi+1 , . . . , vp ).
⇐=) Supposons qu’un vecteur vi s’écrit

vi = α1 · v1 + · · · + αi−1 · vi−1 + αi+1 · vi+1 + · · · + αp · vp

alors
α1 · v1 + · · · + αi−1 · vi−1 − vi + αi+1 · vi+1 + · · · + αp · vp = 0E
Ceci implique que la famille (v1 , . . . , vp ) est une famille liée. ♣
Remarque 2.3.1. Pour tout vecteur v et tout scalaire α, la famille (v, αv) est liée.
Exemple 2.3.2. 1) Soit v1 = (1, 0, −1), v2 = (1, 1, 1) et v3 = (5, 3, 1). On a v3 = 2v1 + 3v2 et donc
la famille (v1 , v2 , v3 ) est liée.
2) Considérons les polynômes P1 (X) = 1 + X, P2 (X) = −1 + 2X + 3X 2 , P3 (X) = X + X 2 . On a
P1 (X) + P2 (X) − 3P3 (X) = 0, ce qui implique que la famille (P1 , P2 , P3 ) est liée.

2.4 Partie génératrice, Base d’un espace vectoriel


Dans ce qui suit E est un K-espace vectoriel.
Définition 2.4.1. 1. Une partie V de E telle que E = Vect(V ) s’appelle une partie génératrice de
E. On dit que la partie V engendre E ou que E est engendré par V .
2. Une famille (vi )i∈I de vecteurs de E est génératrice si la partie {vi , i ∈ I} est une partie génératrice
de E.
Exemples 2.4.1. 1. La famille (X i )i∈N est une famille génératrice de K[X].
24 CHAPITRE 2. ESPACES VECTORIELS

2. Pour un entier n ∈ N⋆ , le K-espace vectoriel Kn est engendré par la famille (e1 , e2 , . . . , en ), avec
ei = (0, · · · , 0, 1, 0, · · · , 0) et 1 situé dans la ième position.
3. Soit E = C(R, R) l’espace vectoriel des fonctions continues de R dans R. Pour k ∈ N, soit fk la
fonction définie par fk (x) = ekx ∀ x ∈ R. Alors pour tout n ∈ N, la famille (fk )0≤k≤n n’est pas
une famille génératrice de E. En effet, supposons qu’il existe un entier naturel n tel que la famille
Pan0 , a1 , . . . , an ∈ R tels que sin = a0 f0 + a1 f1 + · · · + an fn .
(fk )0≤k≤n soit génératrice, alors il existe
Donc ∀ x ∈ R sin(x) = P (ex ), où P = k=0 ak X k . Comme la fonction sin admet une infinité de
zéros et la fonction exponentielle est injective le polynôme P admet une infinité de racines. Ceci
montre que P est nul et donc tous les scalaires ak sont nuls i.e la fonction sin est nulle. Ceci est
absurde.
Remarques 2.4.1. 1. Soit E un K-espace vectoriel. Si V est une partie génératrice de E alors toute
partie de E contenant V est une partie génératrice de E.
2. Soient F1 , F2 , . . . , Fr des sous-espaces vectoriels de E. Si V1 , V2 , . . . , Vr sont des parties généra-
trices respectives des sous-espaces vectoriels F1 , F2 , . . . , Fr . Alors V1 ∪ V2 ∪ · · · ∪ Vr est une partie
génératrice de F1 + F2 + · · · + Fr .
Définition 2.4.2. Une partie V de E est une base de E si elle est à la fois libre et génératrice.
Exemples 2.4.2. 1. La famille (X i )i∈N est une base de K[X].
2. Pour tout entier n ∈ N⋆ , la famille (e1 , e2 , . . . , en ), avec (ei = (0, · · · , 0, 1, 0, · · · , 0) et 1 situé dans
la ième position), est une base du K-espace vectoriel Kn . On l’appelle base canonique de Kn .
Le théorème suivant est à admettre.
Théorème 2.4.1. 1. Tout K-espace vectoriel admet une base.
2. Toute partie génératrice de E contient une base de E.
3. Toute partie libre de E est contenue dans une base de E.
Chapitre 3

Espaces vectoriels de dimension finie

3.1 Base et dimension


Dans tout ce chapitre E désigne un espace vectoriel sur un corps commutatif K.
Définition 3.1.1. On dit que E est de dimension finie s’il existe une famille finie V = (v1 , . . . , vm )
d’éléments de E telle que E = Vect(V ).
Si ce n’est pas le cas, on dit que E est de dimension infinie.
Exemples 3.1.1. 1. Kn est de dimension finie.
2. Kn [X] est de dimension finie.
3. K[X] est de dimension infinie.
4. E = C(R, R) est de dimension infinie.
Théorème 3.1.1. Supposons E de dimension finie.
Si (v1 , . . . , vn ) est une famille génératrice de E, alors toute famille de E de cardinal supérieur ou égal à
n + 1 est une famille liée.
Démonstration. On va procéder par récurrence sur n.
Cas n = 1 : Soit E = Vect{v1 } et v, w ∈ E. Il existe α, β ∈ K tels que v = αv1 et w = βv1 . Si α = 0,
β
alors v = 0 et la famille (v, w) est liée. Sinon w = α v et la famille (v, w) est liée.
Supposons le résultat du théorème vrai au rang n et soit (v1 , . . . , vn+1 ) une famille génératrice de E. Soit
(w1 , . . . , wn+2 ) une famille de vecteurs de E. Si tous les vecteurs wj appartiennent à F = Vect{v1 , . . . , vn },
alors par hypothèse de récurrence la famille (w1 , . . . , wn+2 ) est liée.
Supposons dans le cas contraire que wn+2 ̸∈ F . Comme (v1 , . . . , vn+1 ) engendre E, pour tout j =
1, . . . , n + 2, il existe fj ∈ F et λj ∈ K tels que wj = fj + λj vn+1 . On a λn+2 ̸= 0 et donc
wn+2 − fn+2
vn+1 = .
λn+2
Ceci montre que
λj λj
∀ j ∈ {1, . . . , n + 1}, wj = fj − fn+2 + wn+2 .
λn+2 λn+2
λj
Puisque la famille (fj − λn+2 fn+2 )1≤j≤n+1 est liée dans F , la famille

λj
(wj − wn+2 )1≤j≤n+1
λn+2
est liée dans E. D’où la famille (w1 , . . . , wn+2 ) est liée. ♣

25
26 CHAPITRE 3. ESPACES VECTORIELS DE DIMENSION FINIE

Exemples 3.1.2. 1. La famille (1, X, . . . , X n ) est une famille génératrice de Kn [X], donc toute fa-
mille de Kn [X] à n + 2 éléments est liée.
2. L’espace F(R, C) est de dimension infinie. Sinon il admet une famille génératrice finie (f1 , . . . , fn ).
Mais la famille de fonctions (ekx , k ∈ {0, . . . , n}), à n + 1 éléments, est une famille libre, ce qui
est contradictoire.

Corollaire 3.1.1. Si E est de dimension finie et si (v1 , . . . , vn ) est une famille libre de E, alors toute
famille génératrice de E est formée d’au moins n vecteurs.

Démonstration. Soit (w1 , . . . , wm ) une famille génératrice de E. Nécessairement m ≥ n, sinon d’après le


théorème précédent, la famille (v1 , . . . , vn ) est liée. ♣

Théorème 3.1.2. [Existence de base]


Soit E un K-espace vectoriel de dimension finie. Alors E admet une base.

Démonstration. Si E = {0}, alors {∅} est une base de E. Sinon soit (v1 , . . . , vn ) une famille génératrice
de E et soit (vk1 , . . . , vkr ) une sous-famille de (v1 , . . . , vn ) libre et de cardinal maximal. Posons wj = vkj
pour j = 1, . . . , r, alors ∀ j ̸∈ {k1 , . . . , kr }, la famille (w1 , . . . , wr , vj ) est liée. Ceci montre que ∀ j ̸∈
{k1 , . . . , kr }, vj ∈ Vect{w1 , . . . , wr }. Il s’ensuit que E = Vect{v1 , . . . , nn } ⊂ Vect{w1 , . . . , wr }. D’où
(w1 , . . . , wr ) est une famille libre et génératrice de E. Ceci prouve le théorème. ♣

Théorème 3.1.3. Si E est de dimension finie alors toutes les bases de E ont le même cardinal.

Démonstration. Soient B = (e1 , . . . , en ) et B ′ = (v1 , . . . , vm ) deux bases E. Comme B est libre et B ′ est
génératrice il vient n ≤ m. De même, puisque B ′ est libre et B est génératrice alors n ≥ m. D’où n = m.

Définition 3.1.2. Soit E un K-espace vectoriel de dimension finie. Le cardinal de l’une des bases de E
s’appelle la dimension de E. On la note dim(E) ou dim E.
La dimension d’un sous-espace vectoriel de E est sa dimension en tant que K-espace vectoriel.
Lorsque E est de dimension 1 on dit que E est une droite vectorielle et lorsqu’il est de dimension 2 on
parle de plan vectoriel.

Exemple 3.1.1. 1) La dimension de Kn est égale à n.


2) Dans K[X] considérons le sous-espace vectoriel F = Vect(1, X, X 2 ). La famille (1, X, X 2 ) est libre
alors elle constitue une base de F . Donc la dimension de F est 3. En général, pour un entier n, la
famille (1, X, . . . , X n ) est une base du sous-espace vectoriel de Kn [X]. Donc dim(Kn [X]) = n + 1.
3) Soit Eij l’élément de Mn,p (K) dont tous les coefficients sont nuls sauf celui situé à la i-ème ligne et
la j-ème colonne qui vaut 1. Alors la famille (Eij , 1 ≤ i ≤ n, 1 ≤ j ≤ p) est une base de Mn,p (K).
Il s’ensuit que la dimension de Mn,p (K) est égale à np. En particulier la dimension de Mn (K) est
égale à n2 .

Proposition 3.1.1. Soit E un K-espace vectoriel de dimension finie n et B = (e1 , . . . , en ) une base de
E. Alors tout vecteur de E s’écrit d’une manière unique comme combinaison linéaire des éléments de B.

Démonstration. Soit v un vecteurP de E. Puisque B est une base de E, elle est génératrice. Il existe donc
n
, αn ∈ K tels que v = i=1 αi ei . Supposons qu’ilP
α1 , α2 , . . . P existe β1 , β2 , . . . , βn ∈ K tels que v s’écrit
n n
aussi v = i=1 βi ei . Par soustraction, on obtient la relation i=1 (αi − βi )ei = 0. Comme B est libre on
a nécessairement αi = βi pour 1 ≤ i ≤ n. ♣

Proposition 3.1.2. Soit E un K-espace vectoriel de dimension finie n. Alors


1) Toute famille libre à n éléments est une base de E.
2) Toute famille génératrice à n éléments est une base de E.
3.1. BASE ET DIMENSION 27

Démonstration. 1) Soit (v1 , v2 , . . . , vn ) une famille libre à n éléments. Si v est un élément de E alors la
famille (v1 , . . . , vn , v) est liée et par la proposition 2.3.1, le vecteur v appartient à Vect{v1 , v2 , . . . , vn }.
Ceci montre que la famille (v1 , v2 , . . . , vn ) est à la fois libre et génératrice et donc c’est une base
de E.
2) Soit (v1 , v2 , . . . , vn ) une famille génératrice à n éléments. Si la famille (v1 , v2 , . . . , vn ) est liée alors
l’un des vecteurs vi est une combinaison linéaire des autres. Il s’ensuit que E admet une famille
génératrice de cardinal inférieur ou égal à n − 1. Ceci est impossible.

Supposons que E est de dimension n. Une famille de n vecteurs de E qui est libre est dite libre
maximale. De même une famille de n vecteurs de E qui est génératrice est dite génératrice minimale.
Exemple 3.1.2. 1) Dans C3 , soit v1 = (i, 0, 0), v2 = (1 + i, 1 − i, 0) et v3 = (5, 3 − i, 1). La famille
(v1 , v2 , v3 ) est libre et comme elle est à trois éléments, elle forme une base de C3 .
En utilisant la proposition 3.1.2, on obtient :
Corollaire 3.1.2. Soit E un K-espace vectoriel de dimension finie n et B une famille formée de n
vecteurs de E. Alors les assertions suivantes sont équivalentes :
1. B est une famille libre de E.
2. B est une famille génératrice de E.
3. B est une base de E.
Remarque 3.1.1. Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E. Si F et G
admettent une base commune alors F = G.
Théorème 3.1.4. [Théorème de la base incomplète]
Soit E un K-espace vectoriel de dimension finie n et soit p un entier vérifiant 1 ≤ p < n. Soit
(v1 , . . . , vp ) une famille libre de E, alors il existe vp+1 , . . . , vn des éléments de E tels que la famille
(v1 , . . . , vp , vp+1 , . . . , vn ) est une base de E.
Démonstration. Soit (e1 , e2 , . . . , en ) une base de E, alors la famille B ′ = (v1 , v2 , . . . , vp , e1 , e2 , . . . , en ) est
une famille génératrice de E. Il suffit maintenant de considérer une sous famille libre de B ′ qui contient
la famille (v1 , . . . , vp ) et de cardinal maximal. C’est une base de E. ♣
Corollaire 3.1.3. Soit E un K-espace vectoriel de dimension finie et soit F un sous-espace vectoriel E.
Alors
1. Le sous-espace F admet un supplémentaire. Autrement dit, il existe un sous-espace vectoriel G de
E tel que E = F ⊕ G.
2. dim(F ) ≤ dim(E).
3. Si dim(F ) = dim(E) alors E = F .
Démonstration. 1. Soit B une base de F . La famille B est libre dans E. Par le théorème de la base
incomplète, il existe une famille libre B ′ de E telle que B∪B ′ soit une base de E. Alors G = Vect(B ′ )
est un supplémentaire de F dans G.
2. Ce point découle immédiatement du premier point.
3. Soit B une base de F . Alors B est une famille libre de E qui contient n éléments. Elle est donc
une base de E. D’où E = F .

Proposition 3.1.3. Soit E un K-espace vectoriel de dimension finie et soient F et G deux sous-espaces
vectoriels de E. Si la somme F + G est directe alors

dim(F + G) = dim(F ) + dim(G).


28 CHAPITRE 3. ESPACES VECTORIELS DE DIMENSION FINIE

Démonstration. Soient B1 = (v1 , . . . , vp ) une base de F et B2 = (w1 , . . . , wq ) une base de G. On sait que
B = B1 ∪ B2 est une famille génératrice de F + G.
Montrons que B est libre. Soit α1 , . . . , αp , β1 , . . . , βq ∈ K tels que

α1 v1 + · · · + αp vp + β1 w1 + · · · + βq wq = 0E .

Alors
α1 v1 + · · · + αp vp = −β1 w1 − · · · − βq wq ∈ F ∩ G = {0E }.
Donc
α1 v1 + · · · + αp vp = β1 w1 + · · · + βq wq = 0E .
Comme B1 et B2 sont libres il vient

α1 = · · · = αp = β1 = · · · = βq = 0.

D’où B est une base de F + G et

dim(F + G) = dim(F ) + dim(G).


Le résultat suivant découle directement de la proposition précédente.
Proposition 3.1.4. Soit E un K-espace vectoriel de dimension finie. Soit F et G deux sous-espaces
vectoriels de E. Alors
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).

Démonstration. Soit G1 un supplémentaire de F ∩ G dans G. On voit aisément que F + G = F + G1 . Soit


v ∈ F ∩ G1 , alors v ∈ F ∩ G et v ∈ G1 , donc v = 0. En appliquant la proposition précédente, on obtient

dim(F + G) = dim(F ⊕ G1 )
= dim(F ) + dim(G1 )
= dim(F ) + dim(G) − dim(F ∩ G)

Corollaire 3.1.4. Soit E un K-espace vectoriel de dimension finie et soient F et G deux sous-espaces
vectoriels de E. Alors :

E = F ⊕ G ⇐⇒ E = F + G et dim(E) = dim(F ) + dim(G)


⇐⇒ F ∩ G = {0E } et dim(E) = dim(F ) + dim(G)
⇐⇒ dim(E) = dim(F + G) = dim(F ) + dim(G).

Exemple 3.1.3. Soit E = R3 , F = Vect{(1, 1, 1)} et G = (a1 , a2 , a3 ) ∈ R3 : a1 + a2 + a3 = 0 . Alors
P3
xi
E = F ⊕ G. En effet, soit v = (x1 , x2 , x3 ) ∈ E. Posons λ = i=1
3 , alors

v = λ(1, 1, 1) + (x1 − λ, x2 − λ, x3 − λ)

Donc v ∈ F + G et E ⊂ F + G. Comme F et G sont deux sous-espaces vectoriels de E on P3a F + G ⊂ E. Il


s’ensuit que E = F + G. Soit v = (x1 , x2 , x3 ) ∈ F ∩ G, alors x1 = x2 = x3 = α ∈ R et i=1 xi = 3α = 0.
Donc α = 0 et v = 0. D’où F et G sont supplémentaires dans E. Comme la dimension de F est égal à
1, la dimension de G est 3 − 1 = 2.
Proposition 3.1.5. Soient E et F des K-espaces vectoriels de dimensions finies. Alors :
1. Si F1 , . . . , Fr sont des sous-espaces vectoriels de E alors
3.2. CALCUL DE LA DIMENSION 29

(a)
dim(F1 + · · · + Fr ) ≤ dim(F1 ) + · · · + dim(Fr ).
(b) Il y a égalité si et seulement si la somme F1 + · · · + Fr est directe.
2.
dim(E × F ) = dim(E) + dim(F ).
Démonstration. 1. Soit B1 , . . . , Br des bases respectives de F1 , . . . , Fr .
(a) La réunion B = B1 ∪ · · · ∪ Br est une famille génératrice de F1 + · · · + Fr . Ceci montre que
dim(F1 + · · · + Fr ) ≤ dim(F1 ) + · · · + dim(Fr ).

(b) Il suffit de remarquer que la somme F1 + · · · + Fr est directe si et seulement si la famille


B = B1 ∪ · · · ∪ Br est libre.
2. Soit B1 = (e1 , e2 , . . . , en ) une base de E et B2 = (f1 , . . . , fp ) une base de F . Soit
B = ((e1 , 0F ), (e2 , 0F ), . . . , (en , 0F ), (0E , f1 ), . . . , (0E , fp )),
alors B est une famille libre et génératrice de E ×F . C’est donc une base de E ×F et par conséquent
dim(E × F ) = dim(E) + dim(F ).

3.2 Calcul pratique de la dimension d’un sous-espace vectoriel


Définition 3.2.1. Soit E un K-espace vectoriel de dimension finie. On appelle rang d’une famille V =
(v1 , . . . , vp ) d’éléments de E, qu’on note rg(V), la dimension du sous-espace vectoriel Vect(V).
Proposition 3.2.1. Soit E un K-espace vectoriel de dimension finie n et (v1 , . . . , vp ) une famille d’élé-
ments de E. Alors on a :
1) rg(v1 , . . . , vp ) ≤ min(n, p),
2) rg(v1 , . . . , vp ) = p ⇐⇒ (v1 , . . . , vp ) est libre.
Soit E un K-espace vectoriel de dimension finie n et soit B = (e1 , . . . , en ) une base de E. Un vecteur
v de E s’écrit d’une manière unique comme combinaison linéaire des vecteurs ei :
n
X
v= αi ei : (α1 , . . . , αn ) ∈ Kn .
i=1

Le vecteur (α1 , α2 , . . . , αn ) s’appelle vecteur ligne des coordonnées de v dans B.


Soit maintenant V = (v1 , . . . , vp ) une famille finie de vecteurs de E. La matrice de V dans B est le
tableau, à p lignes et à n colonnes, dont la ième ligne est le vecteur ligne des coordonnées du vecteur vi .
Pour i = 1 · · · p, le vecteur vi s’écrit
n
X
vi = αij ej : (αi1 , . . . , αin ) ∈ Kn
j=1

Alors la matrice de V dans B, notée MatVB , est donnée par :

 
α11 α12 ··· α1n
 α21 α22 ··· α2n 
MatVB =  .
 
..
 . 
αp1 αp2 ··· αpn
30 CHAPITRE 3. ESPACES VECTORIELS DE DIMENSION FINIE

Remarque 3.2.1. Si E = Kn est muni de sa base canonique B alors tout vecteur v ∈ E coincide avec
le vecteur de ses coordonnées dans B.
Théorème 3.2.1. Soit E un K-espace vectoriel de dimension finie n et soit B une base de E. Soit
V = (v1 , . . . , vp ) une famille de vecteurs de E. On applique la méthode de Gauss à MatVB . Alors le rang
de V est égal au nombres de lignes non nulles dans une forme échelon.
Exemple 3.2.1. Dans R5 , soit v1 = (1, 2, 1, −1, −1), v2 = (1, 1, 2, 0, 1), v3 = (0, 1, −1, −1, −2), v4 =
(1, 0, 1, −3, 1), v5 = (0, 1, 2, 5, 1)
La matrice des coordonnées des vecteurs vi est
 
1 2 1 −1 −1
 1 1 2 0 1 
 
 0 1 −1 −1 −2 .
 
 1 0 1 −3 1 
0 1 2 5 1

Une forme échelon obtenue par la méthode de Gauss est


 
1 2 1 −1 −1
 0
 −1 1 1 2 

 0 0 0 0 0 .
 
 0 0 −2 −4 −2 
0 0 0 0 0

Alors le nombre de lignes non nulles est 3. Donc le rang de la famille (v1 , v2 , v3 , v4 , v5 ) est 3.
Chapitre 4

Applications linéaires

4.1 Définitions et propriétés


Définition 4.1.1. Soit E et F deux K-espaces vectoriels. Une application f de E dans F est dite K-
linéaire (ou simplement linéaire) si :
1. ∀ v, w ∈ E f (v + w) = f (v) + f (w).
2. ∀ α ∈ K ∀ v ∈ E f (αv) = αf (v).

Exemples 4.1.1. 1. L’application f : R3 → R définie par f ((x, y, z)) = x + y + z, ∀ (x, y, z) ∈ R3 ,


est une application linéaire. En effet, soit v = (x, y, z), w = (x′ , y,′ , z ′ ) ∈ R3 et α ∈ R. Alors
(a)

f (v + w) = f ((x + x′ , y + y ′ , z + z ′ ))
= x + x′ + y + y ′ + z + z ′
= x + y + z + x′ + y ′ + z ′
= f (v) + f (w)

(b)

f (αv) = f ((αx, αy, αz))


= αx + αy + αz
= α(x + y + z)
= αf (v)

2. L’application f de K[X] dans K2 définie par f (P ) = (P (0), P (1)) est une application linéaire. En
effet, soit P, Q ∈ K[X] et α ∈ K. Alors
(a)

f (P + Q) = ((P + Q)(0), (P + Q)(1))


= (P (0) + Q(0), P (1) + Q(1))
= (P (0), P (1)) + (Q(0), Q(1))
= f (P ) + f (Q)

31
32 CHAPITRE 4. APPLICATIONS LINÉAIRES

(b)

f (αP ) = ((αP )(0), (αP )(1))


= (αP (0), αP (1))
= α(P (0), P (1))
= αf (P )

Exemples 4.1.2. Soit E un K-espace vectoriel.


1. Soit λ ∈ K. L’application hλ de E dans E définie par

∀x∈E : hλ (x) = λx

est une application linéaire appelée l’homothétie de E de rapport λ.


2. Supposons E = F ⊕ G, où F et G sont des sous-espaces vectoriels de E. L’application pF de E
dans E définie par
∀ x = x1 + x2 , x1 ∈ F, x2 ∈ G : pF (x) = x1
est une application linéaire de E dans lui même appelée la projection de E sur F parallèlement à
G.
Soient E et F deux K-espaces vectoriels. L’ensemble des applications linéaires de E dans F est un
K-espace vectoriel, on le note LK (E, F ) ou simplement L(E, F ) lorsqu’il n’y a pas de confusion.
Une application linéaire de E dans E s’appelle un endomorphisme de E. L’ensemble des endomorphismes
de E est noté L(E).
Remarques 4.1.1. 1) Soient E et F deux K-espaces vectoriels et soit f ∈ L(E, F ). Alors f est un
homomorphisme de groupe de (E, +) vers (F, +).
2) La linéarité d’une application dépend de K. L’application de C dans C qui envoie un complexe z
en son conjugué z̄ est R-linéaire mais elle n’est pas C-linéaire.
3) Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ). Alors

f (0E ) = 0F et ∀ v ∈ E f (−v) = −f (v).

Proposition 4.1.1. Soit E et F deux K-espaces vectoriels. Une application f de E dans F est linéaire
si et seulement si
∀ α, β ∈ K ∀ v, w ∈ E f (αv + βw) = αf (v) + βf (w).
Exemples 4.1.3. 1) L’application f de K3 dans K2 définie par :

f : K3 −→ K2
(x, y, z) 7→ (x + 2y, x − z)

est une application linéaire.


2) L’application g de K[X] dans K[X] définie par :

g : K[X] −→ K[X]
P (X) 7→ P ′ (X)

où P ′ (X) est la dérivée de P (X) est une application linéaire.


Proposition 4.1.2. Soit E et F deux K-espaces vectoriels. On suppose que E est de dimension finie n
et soit B = (e1 , . . . , en ) une base de E.
Alors pour tout n-uplet (v1 , . . . , vn ) de vecteurs de F , il existe une unique application linéaire f de E
dans F telle que
∀ i ∈ {1, . . . , n}, f (ei ) = vi .
4.2. NOYAU ET IMAGE D’UNE APPLICATION LINÉAIRE 33

Démonstration. Existence :
Soit f l’application de E dans F définie par
n
! n
X X
∀(α1 , . . . , αn ) ∈ Kn , f αi ei = αi vi
i=1 i=1

Alors f est linéaire et f (ei ) = vi pour tout 1 ≤ i ≤ n.


Unicité :
L’unicité est évidente. ♣

Proposition 4.1.3. Soit E et F deux K-espaces vectoriels de dimension finies. Alors L(E, F ) est de
dimension finie et
dim (L(E, F )) = dim(E) × dim(F ).

4.2 Noyau et image d’une application linéaire


Définition 4.2.1. Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ).
On appelle noyau de f , que l’on note, Kerf l’ensemble

Kerf = {v ∈ E : f (v) = 0F }.

On appelle image de f , que l’on note Imf , l’ensemble f (E).

Exemple 4.2.1. Considérons les deux applications linéaires de l’exemple 4.1.3.


1) Calculons le noyau de f .

(x, y, z) ∈ K3 : (x + 2y, x − z) = (0, 0)



Kerf =
(x, y, z) ∈ K3 : x = −2y et z = x

=
= {(−2y, y, −2y) : y ∈ K}
= Vect {(−2, 1, −2)} .

2) Calculons le noyau de g (on prend K = R).

Kerg = {P ∈ K[X] : P ′ (X) = 0}


= {P ∈ K[X] : P = c ∈ K}
= K

Calculons l’image de g.

Img = {Q ∈ K[X] ∃ P ∈ K[X] : P ′ (X) = Q(X)}


= K[X]

Proposition 4.2.1. Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ). Alors


1) Kerf est un sous-espace vectoriel de E.
2) Imf est un sous-espace vectoriel de F .

Démonstration. 1) Comme f (0E ) = 0F l’ensemble Kerf est non vide. Soit α, β ∈ K et soit v, w ∈
Kerf , montrons que αv + βw ∈ Kerf . On a f (αv + βw) = αf (v) + βf (w) car f est K-linéaire. Or
f (v) = f (w) = 0F donc f (αv + βw) = 0F . Ceci montre que αv + βw ∈ Kerf et donc Kerf est un
sous-espace vectoriel de E.
34 CHAPITRE 4. APPLICATIONS LINÉAIRES

2) L’ensemble Imf contient 0F car f (0E ) = 0F . Soit α, β ∈ K et soit v ′ , w′ ∈ Imf , montrons que
αv ′ + βw′ ∈ Imf . Il existe v, w ∈ E tels que f (v) = v ′ et f (w) = w′ . Ainsi αv ′ + βw′ =
αf (v) + βf (w) = f (αv + βw) car f est K-linéaire. D’où αv ′ + βw′ ∈ Imf . Il s’ensuit que Imf est
un sous-espace vectoriel de F . ♣
Le résultat suivant est évident.
Proposition 4.2.2. Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ). Alors
1) f est injective si et seulement si Kerf = {0E }.
2) f est surjective si et seulement si Imf = F .
Exemples 4.2.1. 1. L’application linéaire f , de K3 dans K2 , donnée dans l’exemple 4.1.3 n’est pas
injective car Kerf ̸= {0K3 }.
2. L’application linéaire g de K[X] dans K[X], donnée dans l’exemple 4.1.3 est surjective car Img =
K[X].
Proposition 4.2.3. Soit E et F deux K-espaces vectoriels. Si B est une partie génératrice de E alors
f (B) est une famille génératrice de Imf .
Démonstration. Si B = ∅, alors E = {0} et f (B) = ∅ est une famille génératrice de Imf = {0F }.
Supposons que B ̸= ∅. Soit w ∈ Imf ; alors il existe v ∈ E tel que f (v) = w. Comme B est une famille
génératrice de E, il existe e1 , e2 , . . . , en ∈ B et α1 , . . . , αn ∈ K tels que v = α1 e1 + · · · + αn en . Ceci
implique que w = f (v) = α1 f (e1 ) + · · · αn f (en ). D’où Imf est engendré par la famille f (B). ♣

Proposition 4.2.4. Soit E et F deux espaces vectoriels et soit f ∈ L(E, F ). Alors :


1. f est injective si et seulement si l’image de toute partie libre de E est une partie libre de F .
2. f est surjective si et seulement si l’image de toute partie génératrice de E est une partie génératrice
de F .
Démonstration. 1. Supposons que f est injective. Il suffit de montrer que l’image de toute famille
libre finie (e1 , . . . , en ) de E est une famille libre de F . Soit α1 , . . . , αn ∈ K tels que

α1 f (e1 ) + · · · + αn f (en ) = 0F .

Alors
f (α1 e1 + · · · + αn en ) = f (0E ).
Comme f est injective il vient
α1 e1 + · · · + αn en 0E .
Mais (e1 , . . . , en ) est libre donc α1 = · · · = αn = 0.
Réciproquement,
Pn on considère une base B de E. Alors par hypothèse f (B) libre dans F . Soit
v = i=1 αi ei ∈ Ker(f ), avec e1 , . . . , en ∈ B. Alors
n
X
f (v) = αi f (ei ) = 0F .
i=1

Comme (f (e1 ), f (e2 ), . . . , f (en )) est libre il vient α1 = · · · = αn = 0. D’où v = 0E et Ker(f ) =


{0E }. Ceci montre que f est injective.
2. D’après la proposition précédente, on sait que si B est une partie génératrice de E alors f (B)
est une partie génératrice de Imf . Alors f est surjective si et seulement si l’image d’une partie
génératrice de E est une partie génératrice de F .

Une conséquence immédiate de la proposition précédente est le résultat suivant :


4.3. ISOMORPHISMES D’ESPACES VECTORIELS, AUTOMORPHISMES 35

Corollaire 4.2.1. Soit E et F deux espaces vectoriels de dimensions finies n et p respectivement et soit
f ∈ L(E, F ). Alors :
1. Si f est injective alors n ≤ p.
2. Si f est surjective alors n ≥ p.

4.3 Isomorphismes d’espaces vectoriels, automorphismes


Définition 4.3.1. Soit E, F et G trois K-espaces vectoriels. Soit f ∈ L(E, F ) et g ∈ L(F, G). On appelle
composée des deux applications g et f l’application, notée g ◦ f , de E dans G et qui est définie par :

∀ v ∈ E : (g ◦ f )(v) = g(f (v))

Exemple 4.3.1. Soit

f : R3 −→ R2
(x, y, z) 7→ (x − 3y, y + 2z)

et
g : R2 −→ R3
(x, y) 7→ (3y, x, 0)

Alors l’application composée g ◦ f est donnée par :

g◦f : R3 −→ R3
(x, y, z) 7→ (3y + 6z, x − 3y, 0)

Proposition 4.3.1. Soit E, F et G trois K-espaces vectoriels. Soit f ∈ L(E, F ) et g ∈ L(F, G). Alors la
composée g ◦ f de g et f est une application linéaire de E dans G.

Démonstration. Soit α, β ∈ K et v, w ∈ E. On a

(g ◦ f )(αv + βw) = g (f (αv + βw))


= g (αf (v) + βf (w))
= αg(f (v)) + βg(f (w))
= α(g ◦ f )(v) + β(g ◦ f )(w).

D’où g ◦ f est linéaire. ♣


Le résultat suivant est immédiat :
Proposition 4.3.2. Soit E, F et G trois K-espaces vectoriels. Alors
1. Pour toutes f, g ∈ L(E, F ) et h ∈ L(F, G) on a :

h ◦ (f + g) = h ◦ f + h ◦ g.

2. Pour tout λ ∈ K, toute f ∈ L(E, F ) et toute g ∈ L(F, G) ona

g ◦ (λf ) = λ(g ◦ f ) = (λg) ◦ f.

Rappelons qu’une application de E dans F est bijective s’il existe une application g de F dans E telle
que g ◦ f = idE et f ◦ g = idF où idE est l’application identité de E. L’application g s’appelle l’inverse
de f et on note g = f −1 .
36 CHAPITRE 4. APPLICATIONS LINÉAIRES

Proposition 4.3.3. Soit f une application linéaire de E dans F . Si f est bijective alors f −1 est une
application linéaire de F dans E.
Démonstration. Soit α, β ∈ K et u′ , v ′ ∈ F . On a

f αf −1 (u′ ) + βf −1 (v ′ ) = αf (f −1 (u′ )) + βf (f −1 (v ′ )) = αu′ + βv ′




Alors
f −1 (αu′ + βv ′ ) = αf −1 (u′ ) + βf −1 (v ′ ).
Ceci montre que f −1 est linéaire. ♣
Définition 4.3.2. Soit E et F deux espaces vectoriels. Une application linéaire bijective de E dans
F s’appelle un isomorphisme d’espaces vectoriles de E dans F . Si E = F , un isomorphisme d’espaces
vectoriels est dit un automorphisme d’espaces vectoriels.
Deux K-espaces vectoriles sont dits isomorphes s’il existe un isomorphisme d’espaces vectoriels de E dans
F.
Exemple 4.3.2. Soit l’application f :

f : R2 [X] −→ R3

P 7→ (P (0), P (0), P ”(0))

C’est un isomorphisme d’espaces vectoriels de R2 [X] dans R3 . En effet :


1. f est linéaire.
2. Soit P ∈ Kerf ; alors P (0) = P ′ (0) = P ”(0) = 0. Comme P = P (0) + P ′ (0)X + 12 P ”(0) le
polynôme P est nul. Il s’ensuit que f est injective.
3. Soit (a, b, c) ∈ R3 ; alors pour P = a + bX + 2c X 2 on a f (P ) = (a, b, c). Donc f est surjective.
On conclut donc que f est un isomorphisme.
On peut montrer plus généralement que Kn [X] et Kn+1 sont isomorphes.
On note GL(E) l’ensemble des automorphismes d’un espace vectoriel E. C’est un groupe pour la
composition d’applications linéaires, appelé groupe linéaire de E. En effet :
1. L’application linéaire idE est un automorphisme de E.
2. La composée de deux automorphismes de E est un automorphisme de E.
3. L’inverse d’un automorphisme de E est un automorphisme de E.
Exemples 4.3.1. 1. Soit E un K-espace vectoriel. Alors pour tout scalaire non nul λ, l’homothétie
de E de rapport λ est un automorphisme de E.
2. Soit
f : R3 −→ R3
(x, y, z) 7→ (x + y + z, 2x + z, −x + y + z)

Alors f est un automorphisme de R3 d’inverse

f −1 : R3 −→ R3
(x , y ′ , z ′ ) 7→

( 21 (x − z), 1
2 (3x − 2y − z), −x + y + z)

Proposition 4.3.4. Soit E et F deux espaces vectoriels, avec E de dimension finie n. Soit (e1 , . . . , en )
une base de E et soit f ∈ L(E, F ). Alors :
1. Si f est injective alors pour toute famille de vecteurs (v1 , . . . , vr ) on a :

rg(v1 , . . . , vr ) = rg(f (v1 ), . . . , f (vr )).


4.4. RANG D’UNE APPLICATION LINÉAIRE 37

2. f est un isomorphisme si et seulement si la famille (f (e1 ), f (e2 ), . . . , f (en )) est une base de F .
3. E et F sont isomorphes si et seulement si E et F sont de même dimension n.
Démonstration. 1. Soit p = rg(v1 , . . . , vr ). On peut supposer que {v1 , . . . , vp } est une base de Vect(v1 , . . . , vr ).
D’une part la famille (f (v1 ), . . . , f (vp )) est libre car f est injective. D’autre part, on a pour tout
i, avec p + 1 ≤ i ≤ r, le vecteur vi appartient à Vect(v1 , . . . , vr ) ce qui implique que le vec-
teur f (vi ) appartient à Vect(f (v1 ), . . . , f (vr )). Ceci montre que (f (v1 ), . . . , f (vp )) est une base de
Vect(f (v1 ), . . . , f (vr )) et que
p = rg(v1 , . . . , vr ) = rg(f (v1 ), . . . , f (vr )).

2. C’est une conséquence immédiate de la proposition 4.2.4. ♣


3. Le premier point montre que si E et F sont isomorphes alors dim(E) = dim(F ) = n. Réciproque-
ment, supposons dim(E) = dim(F ) = n. Soit (e1 , . . . , en ) une base de E et (f1 , . . . , fn ) une base
de F . On sait d’après la proposition 4.1.2 qu’il existe une unique application linéaire f de E dans
F telle que
∀ i ∈ {1, . . . , n}, f (ei ) = fi .
Cette application est donc un isomorphisme car la famille (f (e1 ), . . . , f (en )) est libre et génératrice.

Corollaire 4.3.1. Soit E et F deux espaces vectoriels de même dimension finie et soit f ∈ L(E, F ).
Alors :

f est bijective ⇐⇒ f est injective


⇐⇒ f est surjective

4.4 Rang d’une application linéaire


Définition 4.4.1. Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ). On dit que f est de rang
fini si le sous-espace vectoriel Imf est de dimension finie. Dans ce cas on appelle rang de f et on note
rgf cette dimension finie.
Exemples 4.4.1. 1. Soit l’application linéaire f de K[X] dans K2 définie par
∀ P ∈ K[X] : f (P ) = (P (0), P (1)).
On a pour tout (a, b) ∈ K2 , le polynôme P = (1 − X)a + bX vérifie f (P ) = (a, b). Ceci montre que
Imf = K2 donc rgf = 2.
2. Soit f l’application linéaire de R3 dans R3 définie par :
f : R3 −→ R3
(x, y, z) 7→ (x + 3y, x − 2z, 2z + 3y)

Soit B = (e1 , e2 , e3 ) la base canonique de R3 alors V = (f (e1 ), f (e2 ), f (e3 )) engendre Imf . On va
calculer le rang de f par la méthode de Gauss. On a
f (e1 ) = (1, 1, 0), f (e2 ) = (3, 0, 3), f (e3 ) = (0, −2, 2).
Le tableau des lignes des coordonnées des vecteurs f (e1 ), f (e2 ), f (e3 ) est
 
1 1 0
 3 0 3 
0 −2 2
38 CHAPITRE 4. APPLICATIONS LINÉAIRES

Après avoir appliqué la méthode de Gauss on obtient la forme échelon :


 
1 1 0
 0 −1 1 
0 0 0
On voit que le nombre de lignes non nulles est égal à 2 et par suite le rang de f est 2.
Théorème 4.4.1. (Théorème du rang)
Soit E et F deux K-espaces vectoriels. On suppose que E est de dimension finie n et soit f ∈ L(E, F ).
Alors
dim(Kerf ) + rgf = n.
Démonstration. Si dim(Ker(f )) = n, alors f est nulle et le théorème est vérifié.
Supposons p = dim(Ker(f )) < n, soit {v1 , . . . , vp } une base de Ker(f ) que l’on complète en une base
{v1 , . . . , vp , . . . , vn } de E.
Soit y ∈ Im(f ), alors !
n
X n
X n
X
y=f λ i vi = λi f (vi ) = λi f (vi ),
i=1 i=1 i=p+1

Pn {f (vp+1 ), . . . , f (vn )} P
ce qui montre que la partie engnedre Im(f ).
n
Soit une combinaison i=p+1 αi f (vi ) = 0, alors i=p+1 αi vi ∈ Ker(f ) et donc
n
X p
X
αi vi = βi vi .
i=p+1 i=1

Comme {v1 , . . . , vp , . . . , vn } est une base de E il vient


β1 = · · · = βp = αp+1 = · · · = αn = 0.
Il s’ensuit que la famille (f (vp+1 ), . . . , f (vn )) est une base de Im(f ) et
rg(f ) = n − p = n − dim(Ker(f )).

Exemple 4.4.1. Considérons l’application linéaire de l’exemple 4.4.1. Son rang est égal à 2, donc d’après
le théorème du rang, Kerf est un sous-espace vectoriel de dimension 1. Il est engendré par tout élément
non nul v de R3 vérifiant f (v) = 0.
Un corollaire du théorème de rang est le résultat suivant :
Corollaire 4.4.1. Soit F et G deux sous-espaces vectoriels de dimensions finies d’un espace vectoriel E.
Alors
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Démonstration. Soit l’application linéaire f :
f : F × G −→ F +G
(x, y) 7→ x+y
Il est clair que f est surjective. Alors rg(f ) = dim(F + G).
De plus
Ker(f ) = {(x, y) ∈ F × G : x + y = 0}
= {(x, −x) x ∈ F ∩ G}
Ceci montre que Ker(f ) est isomorphe à F ∩G et donc dim(Ker(f )) = dim(F ∩G). En utilisant le théorème
de rang il vient : dim(F ×G) = dim(Ker(f ))+rg(f ). Donc dim(F )+dim(G) = dim(Ker(f ))+dim(F +G).

4.5. MATRICE D’UNE APPLICATION LINÉAIRE 39

4.5 Matrice d’une application linéaire


Dans cette section, E et F sont deux K-espaces vectoriels de dimensions respectives p et n.

Définition 4.5.1. Soit B = (e1 , . . . , ep ) une base de E et soit x = x1 e1 + · · · + xp ep un vecteur de E. On


appelle vecteur colonne des coordonnées de x dans la base B le vecteur colonne
 
x1
 .. 
 . .
xp

Exemples 4.5.1. 1. Dans R3 muni de sa base canonique (e1 , e2 , e3 ), le vecteur colonne des coordon-
nées du vecteur 2e1 − e2 + e3 est
 
2
 −1  .
1

2. Dans R2 [X] muni de sa base canonique (1, X, X 2 ), le vecteur colonne des coordonnées du polynôme
3 + 2X − X 2 est  
3
 2 .
−1

Définition 4.5.2. Soit f ∈ L(E, F ). Soit B = (e1 , . . . , ep ) une base de E et soit B ′ une base de F .
On appelle matrice de f relativement aux bases B et B ′ , que l’on note Mat(f, B, B ′ ), la matrice de Mn,p (K),
dont la i-ème colonne est le vecteur colonne des coordonnées de f (ei ) dans B ′ , pour i = 1, . . . , p.
Si E = F , on note Mat(f, B, B) tout simplement Mat(f, B).

Exemples 4.5.2. 1. Soit l’application linéaire

f : R2 −→ R3
(x, y) 7→ (x + 3y, x − y, −2x + 2y)

Soit B = (e1 , e2 ) (respectivement B ′ = (e′1 , e′2 , e′3 )) la base canonique de R2 (respectivement de R3 ).


Alors la matrice de f relativement aux bases B et B ′ est
 
1 3
Mat(f, B, B ′ ) =  1 −1  .
−2 2

2. Soit l’application linéaire f de R2 [X] dans R3 définie par

f (P ) = (P (0), P (1), P (2)) ∀ P ∈ R2 [X].

On munit R2 [X] de sa base canonique B = (1, X, X 2 ) et R3 de sa base canonique B ′ = (e1 , e2 , e3 ).


Alors la matrice de f relativement à B et B ′ est
 
1 0 0
Mat(f, B, B ′ ) =  1 1 2  .
1 2 4
40 CHAPITRE 4. APPLICATIONS LINÉAIRES

Exemple 4.5.1. On munit R2 [X] de la base B = (1, X, X 2 ) et on considère l’application linéaire :

f : R2 [X] −→ R2 [X]
P (X) 7→ XP ′ (X)

La matrice de f relativement à la base B est


 
0 0 0
Mat(f, B) =  0 1 0 
0 0 2

On munit E d’une base B = (e1 , . . . , ep ) et F d’une base B ′ = (e′1 , . . . , e′n ). A une application linéaire
de E dans F correspond sa matrice qui est un élément de Mn,p (K). Inversement, soit

A = (ai,j )1≤i≤n,1≤j≤p

une matrice de Mn,p (K) ; alors elle est la matrice de l’application linéaire f ∈ L(E, F ) donnée par
n
X
f (ej ) = akj e′j 1 ≤ j ≤ p.
k=1

Exemple 4.5.2. Soit la matrice


 
2 0 −2
A =  −1 3 1 .
2 1 1

Si B = (e1 , e2 , e3 ) est la base canonique de R3 alors A est la matrice de l’application linéaire f de R3


dans R3 donnée par
f (e1 ) = (2, −1, 2), f (e2 ) = (0, 3, 1), f (e3 ) = (−2, 1, 1).
Donc f est définie par :
(x, y, z) 7→ (2x − 2z, −x + 3y + z, 2x + y + z).

On munit E d’une base B = (e1 , . . . , ep ) et F d’une base B ′ = (e′1 , . . . , e′n ). Soit P


f ∈ L(E, F ) de
p
matrice A relativement aux bases B et B ′ . Soit v un vecteur représenté dans B par v = j=1 xj ej . Donc
 
p
X p
X n
X n
X Xp
f (v) = xj f (ej ) = xj aij e′i =  aij xj  e′i
j=1 j=1 i=1 i=1 j=1

D’où le vecteur des coordonnées de f (v) dans B ′ est donné par :


 
y1 p
Y =  ...  où yi =
X
aij xj
 

yn j=1

On conclut que
 
x1
Y = AX où X =  ...  est le vecteur des coordonnées de v dans B.
 

xp
4.5. MATRICE D’UNE APPLICATION LINÉAIRE 41

Exemple 4.5.3. Soit f l’application linéaire donnée dans l’exemple 4.5.2. La matrice de f relativement
aux bases canoniques de R2 et R3 est
 
1 3
A= 3 0 
0 2

Soit v = 3e1 + 4e2 ∈ R2 . Alors le vecteur des coordonnées de f (v) est


 
  15
3
AX = A =  9 .
4
8

Proposition 4.5.1. On munit E (respectivement F ) d’une base B (respectivement d’une base B ′ ). Soit
f, g ∈ L(E, F ). Alors
1) Mat(f + g, B, B ′ ) = Mat(f, B, B ′ ) + Mat(g, B, B ′ ),
2) ∀ α ∈ K : Mat(αf, B, B ′ ) = αMat(f, B, B ′ ).

Démonstration. Supposons B = (e1 , . . . , ep ).


1. On sait que la i-ème colonne de Mat(f + g, B, B ′ ) est formée par le vecteur des coordonnées de
(f + g)(ei ). Comme (f + g)(ei ) = f (ei ) + g(ei ) il vient la i-ème colonne de Mat(f + g, B, B ′ ) est
égale à la somme de la i-ème colonne de Mat(f, B, B ′ ) et la i-ème colonne de Mat(g, B, B ′ ). Ceci
montre que
Mat(f + g, B, B ′ ) = Mat(f, B, B ′ ) + Mat(g, B, B ′ )

2. On montre ce point d’une manière similaire.



On a immédiatement le résultat important suivant :

Proposition 4.5.2. Soient E et F deux espaces vectoriels munis respectivement des bases B = (e1 , . . . , ep )
et B ′ = (e′1 , . . . , e′n ). Alors
1. L’application

φ :LK (E, F ) → Mn,p (K)


f 7→ Mat(f, B, B ′ )

est un isomorphisme d’espaces vectoriels.


2. dim(LK (E, F )) = np.

Proposition 4.5.3. Soit E, F et G trois K-espaces vectoriels. On munit E (respectivement F et G)


d’une base B (respectivement des bases B ′ et B ′′ ). Soit f ∈ L(E, F ) et g ∈ L(F, G). Alors :

Mat(g ◦ f, B, B ′′ ) = Mat(g, B ′ , B ′′ )Mat(f, B, B ′ ).

Démonstration. Supposons B = (e1 , . . . , ep ), B ′ = (v1 , . . . , vn ) et B” = (w1 , . . . , wq ). Ensuite notons

(aij ) = Mat(f, B, B ′ ), (bij ) = Mat(g, B ′ , B ′′ ), (cij ) = Mat(g ◦ f, B, B ′′ ).


42 CHAPITRE 4. APPLICATIONS LINÉAIRES

Pour 1 ≤ j ≤ p, on a :

(g ◦ f )(ej ) = g(f (ej ))


n
X
= g( akj vk )
k=1
n
X
= akj g(vk )
k=1
q
n
!
X X
= akj bik wi
k=1 i=1
q n
!
X X
= bik akj wi
i=1 k=1
Pn
Alors pour 1 ≤ i ≤ q et 1 ≤ j ≤ p, on a cij = k=1 bik akj . Ceci montre que

Mat(g ◦ f, B, B ′′ ) = Mat(g, B ′ , B ′′ )Mat(f, B, B ′ ).


Exemple 4.5.4. Considérons l’application linéaire composée présentée dans l’exemple 4.3.1. La matrice
de f relativement aux bases canoniques de R3 et R2 est
 
1 −3 0
A=
0 1 2

et la matrice de g relativement aux bases canoniques de R2 et R3 est


 
0 3
B =  1 0 .
0 0

En utilisant la proposition précédente, la matrice de la composée g ◦ f relativement à la base canonique


de R3 est  
0 3 6
Mat(g ◦ f, B) = BA =  1 −3 0 .
0 0 0
Proposition 4.5.4. Supposons que E et F sont de même dimension p et munis respectivement d’une
base B et d’une base B ′ . Soit f une application linéaire de E dans F . Alors :
1. f est un isomorphisme d’espaces vectoriels si et seulement si Mat(f, B, B ′ ) est inversible.
2. Si f est un isomorphisme alors

Mat(f −1 , B ′ , B) = (Mat(f, B, B ′ ))−1 .

Démonstration. 1. Montrons l’implication directe. Supposons que f est un isomorphisme. Alors il


existe g ∈ L(F, E) telle que f ◦ g = idF et g ◦ f = idE . Donc

Mat(g ◦ f, B) = Ip = Mat(f ◦ g, B ′ ).

Il s’ensuit que

Mat(g, B ′ , B)Mat(f, B, B ′ ) = Mat(f, B, B ′ )Mat(g, B ′ , B) = Ip .


4.6. CHANGEMENT DE BASES 43

D’où Mat(f, B, B ′ ) est inversible.


Réciproquement, supposons que Mat(f, B, B ′ ) est inversible et considérons l’application linéaire
g ∈ L(F, E) de matrice (Mat(f, B, B ′ ))−1 relativement aux bases B ′ et B. Alors on a :

Mat(g ◦ f, B) = Ip = Mat(f ◦ g, B ′ ).

Ceci montre que f ◦ g = idF et g ◦ f = idE . D’où f est un isomorphisme.


2. Le deuxième point découle facilement du premier.

Exemple 4.5.5. Soit l’application linéaire de R2 [X] dans R3 définie par f (P ) = (P (0), P (1), P (−1)).
On munit R2 [X] de la base B = (1, X, X 2 ) et R3 de sa base canonique B ′ = (e1 , e2 , e3 ). L’endomorphisme
f est un isomorphisme puisque rg(f ) = dim(R2 [X]) = dim(R3 ). Soit
 
1 0 0
A = Mat(f, B, B ′ ) =  1 1 1 ,
1 −1 1

alors f −1 a pour matrice relativement aux bases B ′ et B la matrice inverse de A :


 
2 0 0
1
A−1 =  0 −1 1 
2
−2 1 1

4.6 Changement de bases


Soit E et F deux K-espaces vectoriels de dimensions respectives p et n. Dans cette section, on étudiera
l’effet du changement de bases sur les coordonnées d’un vecteur et sur la matrice d’une application linéaire
de E dans F .

Définition 4.6.1. On munit E de deux bases B = (e1 , . . . , ep ) et B ′ = (e′1 , . . . , e′p ). La matrice de


l’identité de E relativement aux bases B ′ et B s’appelle la matrice de passage de la base B à la base B ′ .
On la note PB,B′ .
PB,B′ = Mat(idE , B ′ , B).

Exemples 4.6.1. 1. On munit R3 de sa base canonique B = (e1 , e2 , e3 ) et de la base B ′ = (v1 , v2 , v3 ),


avec
v1 = e 1 + e 2 + e 3 , v2 = 2e1 − e2 + 2e3 , v3 = −e1 + 3e2 + e3 .
Alors la matrice de passage de B à B ′ est
 
1 2 −1
PB,B′ = 1 −1 3 
1 2 1

2. On munit R2 [X] de sa base canonique B = (1, X, X 2 ) et de la base B ′ = (1, X − 1, (X − 1)2 ). Alors


la matrice de passage de B à B ′ est
 
1 −1 1
PB,B′ =  0 1 −2 
0 0 1
44 CHAPITRE 4. APPLICATIONS LINÉAIRES

′ ′
Proposition 4.6.1. On munit E de   B et B . Soit P la matrice de passage de B à B et
deux bases
x1
 .. 
soit v un vecteur de E. Notons X =  .  le vecteur colonne des coordonnées de v dans B et soit
xp
x′1
 

X ′ =  ...  le vecteur colonne des coordonnées de v dans B ′ . Alors on a :


 

x′p

X = P X ′.

Exemple 4.6.1. Dans R3 , considérons les vecteurs :

v1 = (2, 0, −1), v2 = (−8, 1, 0) et v3 = (0, 1, −5).

Ils sont linéairement indépendants donc  libre maximale B = (v1 , v2 , v3 ) est une base de E. Soit
la famille
3
Bc la base canonique de E et soit v =  1  ∈ R3 . Déterminons les coordonnées de v dans la base B.
−4
La matrice de passage de Bc à B est
 
2 −8 0
P = 0 1 1 .
−1 0 −5

Donc le vecteur des coordonnées X ′ de v dans B est donnée par la relation


 
3
 1  = P X ′.
−4

Cette dernière relation conduit à un système linéaire à une unique solution. On obtient donc
 
23
1
X′ =  5  .
2
−3

Exemple 4.6.2. Soit E = R2 [X] muni des deux bases B = (1, X, X 2 ) et B ′ = (1, X − 1, (X − 1)2 ).
Déterminons les coordonnées de Q(X) = 1 − X 2 dans B ′ . La matrice de passage de B à B ′ est
 
1 −1 1
P =  0 1 −2 
0 0 1

et le vecteur des coordonnées de Q(X) dans B est


 
1
X= 0 
−1
 
x
Donc le vecteur des coordonnées X ′ =  y  de Q(X) dans la base B ′ est donné par la relation
z

X = P X ′.
4.6. CHANGEMENT DE BASES 45

On obtient donc  
0
X ′ =  −2  .
−1
D’où Q(X) s’exprime dans la base B ′ comme suit Q(X) = −2(X − 1) − (X − 1)2 .

(Le théorème suivant s’appelle le théorème de changement de bases. Il permet de déterminer la matrice
d’une application linéaire après un changement de bases en utilisant les matrices de passage.

Théorème 4.6.1. On munit E de deux bases B1 et B2 et F de deux bases B1′ et B2′ . Soit f une application
linéaire de E dans F de matrice A relativement aux base B1 et B1′ . Alors la matrice A′ de f relativement
B2 et B2′ est donnée par :
A′ = Q−1 AP,

P = PB1 ,B2 Q = PB1′ ,B2′ .

Démonstration. Soit le diagramme :


f
(E, B1 ) −→ (F, B1′ )
x 
 y
f
(E, B2 ) −→ (F, B2′ )

Alors
fB2 ,B2′ = idF B1′ ,B2′ ◦ fB1 ,B1′ ◦ idE B2 ,B1 ,
où fB,B′ désigne l’application linéaire f lorsqu’on munit E de la base B et F de la base B ′ .
En passant aux matrices, on obtient :

Mat(f, B2 , B2′ ) = Mat(idF , B1′ , B2′ )Mat(f, B1 , B1′ )Mat(idE , B2 , B1 ),

soit
A′ = Q−1 AP.

Un cas important est le cas où E = F .

Théorème 4.6.2. On munit E de deux bases B et B ′ . Soit f un endomorphisme de E de matrice A


relativement à la base B. Alors la matrice A′ de f relativement à la base B ′ est donnée par :

A′ = P −1 AP, P = PB,B′ .

Exemple 4.6.3. Soit E = R3 muni de sa base canonique Bc et soit B = (v1 , v2 , v3 ) la base de E formée
par les vecteurs v1 , v2 , v3 de l’exemple 4.6.1. Considérons l’endomorphisme f de R3 défini par :

(x, y, z) 7→ (2x − 2z, −x + 3y + z, 2x + y + z).

et déterminons la matrice de f relativement à la base B. La matrice de passage de Bc à B est


 
2 −8 0
P = 0 1 1 .
−1 0 −5
46 CHAPITRE 4. APPLICATIONS LINÉAIRES

De plus la matrice de f relativement à Bc est


 
2 0 −2
A =  −1 3 1 .
2 1 1

Donc d’après le dernier théorème, la matrice de f relativement à la base B est


 
−33 120 −31
B = P −1 AP = 
 
 −9 32 −9  .
6 −21 7

Exemple 4.6.4. Soit E = R2 [X] muni des deux bases B = (1, X, X 2 ) et B ′ = (1, X − 1, (X − 1)2 ) et soit
f l’application linéaire donnée dans l’exemple 4.5.1. La matrice de f relativement à la base B est
 
0 0 0
A= 0 1 0 
0 0 2

et la matrice de passage de B à B ′ est


 
1 −1 1
P = 0 1 −2  .
0 0 1

En utilisant le théorème précédent, la matrice de f relativement à la base B ′ est


 
0 1 0
B = P −1 AP =  0 1 2  .
0 0 2

Définition 4.6.2. Deux matrices carrées d’ordre n sont semblables s’il existe une matrice carrée inversible
P d’ordre n telle que
A′ = P −1 AP
Remarque 4.6.1. Deux matrices sont semblables si elles représentent un même endomorphisme dans
deux bases différentes.
Remarque 4.6.2. Soit  
p1,1 ··· p1,n
P =  ... .. 

··· . 
pn,1 ··· pn,n
n
une matrice inversible Pnde Mn (K) (n ≥ 2) et soit Bc = (e1 , . . . , en ) la base canonique de K .n Pour
j = 1 · · · n, soit vj = i=1 pi,j ei . Comme P est inversible alors B = (v1 , . . . , vn ) est une base de K et P
est égale à la matrice de passage de Bc à B. Donc P = Mat(idE , B, Bc ) et P −1 = Mat(idE , Bc , B). Par
suite pour calculer P −1 il suffit d’écrire les éléments de Bc en fonction des éléments de B.
Exemple 4.6.5. Soit la matrice réelle inversible
 
1 2 −2
A= 2 2 0 .
2 −2 4
4.7. RANG ET TRACE D’UNE MATRICE, TRACE D’UN ENDOMORPHISME 47

Soit
v1 = (1, 2, 2), v2 = (2, 2, −2) et v3 = (−2, 0, 4).
La famille B = (v1 , v2 , v3 ) est une base de R3 et A coincide avec la matrice de passage de la base canonique
Bc de R3 à B. Le calcul de A−1 se ramène à l’expression des ei , i = 1, 2, 3 en fonction de v1 , v2 , v3 . On a
1 3 1 1 1
e1 = v1 − v2 − v3 , e2 = − v1 + v2 + v3 , e3 = v1 − v2 − v3 .
2 4 2 2 4
Il s’ensuit que :  
1 −1/2 1/2
A−1 =  −1 1 −1/2 
−1 3/4 −1/4

4.7 Rang et trace d’une matrice, trace d’un endomorphisme


On suppose que E et F sont des espaces vectoriels de dimensions respectives p et n. On rappelle que le
rang d’une application linéaire f ∈ L(E, F ) est égal à la dimension du sous-espace vectoriel Im(f ). Etant
données une base B de E et une base B ′ de F , on sait que toute matrice de Mn,p (K) est la matrice d’une
unique application linéaire de E dans F relativement à B et B ′ . Ceci conduit à la définition suivante :
Définition 4.7.1. Soit A une matrice de Mn,p (K). On appelle rang de la matrice A le rang de l’application
linéaire de L(Kp , Kn ), associée à A. On le note rg(A).
Remarque 4.7.1. Le rang d’une matrice A de Mn,p (K) coincide avec le rang de la famille des vecteurs
de Kn , dont les vecteurs coordonnées sont les colonnes de A.
Exemple 4.7.1. Soit la matrice réelle de M(2, 3)(R) :
 
1 2 1
A=
−1 1 2

Le rang de A est égal au rang de la famille (v1 , v2 , v3 ), avec v1 = (1, −1), v2 = (2, 1), v3 = (1, 2). En
utilisant la méthode de Gauss on obtient rg(A) = 2.
On a la proposition suivante :
Proposition 4.7.1. Soit A une matrice de Mn,p (K). Alors on a :
1. rg(A) = rg(AT ). 1
2. rg(A) ≤ min(n, p).
3. Si A est carrée (n = p) alors A est inversible si et seulement si rg(A) = n.
Proposition 4.7.2. Soient B une base de E et B ′ une base de F . Soit f ∈ L(E, F ) de matrice A
relativement à B et B ′ . Alors on a :
1. f est injective ⇐⇒ rg(A) = dim(E).
2. f est surjective ⇐⇒ rg(A) = dim(F ).
3. f est bijective ⇐⇒ rg(A) = dim(E) = dim(F ).
Définition 4.7.2. Soit A = (aij ) une matrice carrée d’ordre n. On appelle trace de A, que l’on note
tr(A) le scalaire
n
X
tr(A) = aii = a11 + · · · + ann .
i=1
1. Ce résultat sera démontré plus tard.
48 CHAPITRE 4. APPLICATIONS LINÉAIRES

On a les propriétés suivantes :

Proposition 4.7.3. Soient A et B deux matrices carrées d’ordre n. Alors :


1. tr(A + B) = tr(A) + tr(B).
2. Pour tout scalaire λ ∈ K on a tr(λA) = λtr(A).
3. tr(AB) = tr(BA).

Démonstration. Les deux premiers points Pnsont évidents. Montrons le troisième. Supposons A = (aij ) et
B = (bij ). Alors AB = (c
Pijn), avec c ij = k=1 aik bkj pour 1 ≤ i, j ≤ n et
BA = (dij ), avec dij = k=1 bik akj pour 1 ≤ i, j ≤ n. Donc

n
X
tr(AB) = cii
i=1
Xn n
X
= ( aik bki )
i=1 k=1
Xn X n
= aik bki
i=1 k=1
Xn X n
= ( bki aik )
k=1 i=1
Xn
= dkk
k=1
= tr(BA).

On définit de même la trace d’un endomorphisme de E.

Définition 4.7.3. Soit f un endomorphisme de E. On appelle trace de f la trace de la matrice de f


dans une base de E.

Remarque 4.7.2. En utilisant la formule de changement de base, la trace d’un endomorphisme ne


dépend pas de la base dans laquelle sa matrice est représentée.

Exemple 4.7.2. Soit f l’endomorphisme de R2 [X] donné par ∀ P ∈ R2 [X] : f (P ) = XP ′ . La matrice


de f dans la base canonique (1, X, X 2 ) de R2 [X] est
 
0 0 0
A= 0 1 0 
0 0 2

Alors tr(f ) = tr(A) = 3.

4.8 Formes linéaires, dualité


Dans cette section K est un corps commutatif et E est un K-espace vectoriel.
4.8. FORMES LINÉAIRES, DUALITÉ 49

4.8.1 Définitions et premières propriétés


Définition 4.8.1. Une forme linéaire sur E est une application linéaire de E dans K. On note E ∗ le
K-espace vectoriel des formes linéaires de E.

Exemples 4.8.1. 1. L’application

φ : R3 → R
(x, y, z) 7→ 2x − y + 3z

est une forme linéaire de R3 .


2. L’application

φ : K[X] → K
P 7→ P (0)

est une forme linéaire de K[X].


3. Soit E le R-espace vectoriel des fonctions Riemann intégrables sur un intervalle [a, b]. Alors l’ap-
plication

φ:E→R
Z b
f 7→ f (t)dt
a

est une forme linéaire sur E.

Notation 4.8.1. Supposons E de dimension finie n et soit B = (e1 , e2 , . . . , en ) une base de E. Pour tout
i ∈ {1, . . . , n} on définit la forme linéaire e∗i sur E par

∀i ∈ {1, . . . , n} e∗i (ej ) = δij ,

où 
1 si i = j
δij =
0 si i ̸= j.
désigne le symbole de Kronecker.

Notons que
e∗i (x) = xi ∀x = x1 e1 + x2 e2 + · · · + xn en ∈ E
Proposition 4.8.1. Supposons E de dimension finie. Alors pour toute base B = (e1 , e2 , . . . , en ) de E, la
famille B ∗ = (e∗1 , e∗2 , . . . , e∗n ) est une base de E ∗ , appelée base duale de B.

Démonstration. Montrons que B ∗ est libre et génératrice.


Soit λ1 , . . . , λn ∈ K tels que
Xn
λj e∗j = 0E ∗ .
j=1

Alors pour tout i ∈ {1, . . . , n},


 
n
X
 λj e∗j  (ei ) = λi = 0.
j=1
50 CHAPITRE 4. APPLICATIONS LINÉAIRES

Ainsi B ∗ est libre. Pn


Soit f ∈ E ∗ et posons g = j=1 f (ej )e∗j . On a pour tout i ∈ {1, . . . , n},
 
n
X
g(ei ) =  f (ej )e∗j  (ei ) = f (ei ).
j=1

Ceci montre que f = g et donc f ∈ Vect(B ∗ ).


Corollaire 4.8.1. Si E est de dimension finie, Le dual E ∗ est aussi de dimension finie égale à celle de
E.
Corollaire 4.8.2. Soit B = (e1 , e2 , . . . , en ) une base de E et B ∗ = (e∗1 , e∗2 , . . . , e∗n ) sa base duale. Alors
Pn
1. ∀x ∈ E, x = i=1 e∗i (x)ei ,
Pn
2. ∀f ∈ E ∗ , f = j=1 f (ej )e∗j .
Exemple 4.8.1. Soit E = Kn [X] l’espace vectoriel des polynômes de degré inférieur ou égal à n. Sa base
canonique est
B = (1, X, X 2 , . . . , X n )
En utilisant la formule exprimant les coordonnées d’un vecteur, sa base duale est donnée par

P (j) (0)
e∗j (P ) = aj = , j = 0, 1, . . . , n
j!

4.8.2 Base antéduale


Proposition 4.8.2. 1. Si φ est une forme linéaire non nulle sur E, alors il existe a ∈ E tel que
φ(a) = 1.
2. Pour tout a vecteur non nul de E il existe une forme linéaire non nulle sur E telle que φ(a) = 1.
x
Démonstration. 1. Puisque φ est non nulle il existe x ∈ E tel que φ(x) ̸= 0. On pose a = φ(x) , alors
φ(a) = 1.
P
2. On complète a en une base (a, ei )i∈I de E. Pour chaque x = αx a + i∈I xi ei , on considère la
forme linéaire φ sur E définie par φ(x) = αx . Il est clair que φ(a) = 1.
Proposition 4.8.3. Supposons E de dimension finie n et soit D = (φ1 , . . . , φn ) une base de E ∗ . Alors
il existe une base unique B = (b1 , . . . , bn ) de E telle que D est la base duale de B.
Démonstration. On définit l’application linéaire

u : E → Kn
x 7→ (φ1 (x), . . . , φn (x))

Le deuxième point de la proposition précédente montre que u est injective, donc c’est un isomorphisme
de E dans Kn . Soit (e1 , . . . , en ) la base canonique de Kn et bi = u−1 (ei ) pour i = 1, . . . , n. Puisque u est
un isomorphisme la famille B = (b1 , b2 , . . . , bn ) est une base de E. De plus

u(bj ) = ej = (φ1 (bj ), . . . , φj (bj ), . . . , φn (bj ))

Donc
φi (bj ) = δij .
Ceci montre que D est la base duale de B.
L’unicité de la base (b1 , . . . , bn ) est évidente.
4.8. FORMES LINÉAIRES, DUALITÉ 51

Proposition 4.8.4. Soit B1 , B2 deux bases de E et B1∗ , B2∗ leurs bases duales respectives. Alors

MatB1∗ B2∗ = t (MatB1 B2 )−1 .

Démonstration. Posons
B1 = (e1 , . . . , en ), B2 = (b1 , . . . , bn )
et soit
A = (aij ) = MatB1 B2 , B = (bij ) = MatB1∗ B2∗ .
Pn Pn
On a bj = k=1 akj ek et b∗i = ℓ=1 bℓi e∗ℓ . Par définition de la base duale, on a

δij = b∗i (bj )


n n
!
X X
= bℓi e∗ℓ akj ek
ℓ=1 k=1
Xn Xn
= bℓi akj e∗ℓ (ek )
ℓ=1 k=1
n X
X n
= bℓi akj δℓk
ℓ=1 k=1
Xn
= bki akj
k=1

On déduit alors que t


BA = In et par suite B = t A−1 .

Remarque 4.8.1. Les b∗i ont pour composantes celles des vecteurs lignes de A−1 .

Exemples 4.8.2. Soit B1 = (e1 , e2 , e3 ) la base canonique de R3 et soit B1∗ = (e∗1 , e∗2 , e∗3 ) sa base
duale.
1. Soit B2 une autre base de R3 , avec

b1 = (1, 1, 0), b2 = (−2, −2, −1), b3 = (1, 2, 1)

On a  
1 −2 1
A = MatB1 B2 =  1 −2 2 
0 −1 1
En utilisant la proposition précédente, la matrice de passage de la base duale B1∗ à la base duale
B2∗ est donnée par :
 
0 −1 −1
B = MatB1∗ B2∗ = t A−1 =  1 1 1 
−2 −1 0
Ainsi la base duale de B2 est formée par les trois vecteurs b1 , b2 , b3 :

b∗1 = e∗2 − 2e∗3 , b∗2 = −e∗1 + e∗2 − e∗3 , b∗3 = −e∗1 + e∗2 .

2. Soit φ1 , φ2 , φ3 trois formes linéaires sur R3 données par :

φ1 = e∗1 + e∗2 + e∗3 , φ2 = e∗1 − e∗2 + e∗3 , φ3 = e∗2 + e∗3 .


52 CHAPITRE 4. APPLICATIONS LINÉAIRES

La famille D = (φ1 , φ2 , φ3 ) est libre dans (R3 )∗ et donc c’est une base de (R3 )∗ . Nous allons
déterminer la base antéduale de D.
On a  
1 1 0
B = MatB1∗ D =  1 −1 1 
1 1 1
D’après la proposition précédente, la matrice de passage de la base canonique B1 à la base antéduale
de D est  
2 0 −2
1
A = t B −1 =  1 −1 0 
2
−1 1 2
Alors la base antéduale de D est la base (v1 , v2 , v3 ), avec
1 1 1
v1 = (2e1 + e2 − e3 ), v2 = (−e2 + e3 ), v3 = (−2e1 + 2e3 ).
2 2 2
Chapitre 5

Déterminants

Dans ce chapitre K est un corps commutatif de caractéristique différente de 2. Pour n ∈ N⋆ , Sn désigne


le groupe symétrique.

5.1 Applications n-linéaires


Définition 5.1.1. Soient E et F deux K-espaces vectoriels. Une application f : E n → F est dite n-
linéaire sur E lorsque f est linéaire par rapport à chacune de ses variables, c’est à dire :

∀ x1 , . . . , xn ∈ E, ∀ i ∈ {1, . . . , n},

l’application fi : E → F définie par : fi (x) = f (x1 , . . . , xi−1 , x, xi+1 , . . . , xn ) est linéaire.


Exemples 5.1.1. 1. L’application f : R2 × R2 → R définie par f (u, v) = u1 v1 + u2 v2 (avec u =
(u1 , u2 , ) et v = (v1 , v2 )), est une application 2-linéaire sur R2 .
2. Soit E = Mn (K), l’application f : E 2 → E définie par f (A, B) = AB − BA, est 2-linéaire sur E.
3. Soient E un K-espace vectoriel et φ1 , φ2 , . . . , φn des formes linéaires sur E. Alors l’application
f : E n → K définie par

∀ x1 , . . . , xn ∈ E, f (x1 , x2 , . . . , xn ) = φ1 (x1 )φ2 (x2 ) · · · φn (xn )

est une application n-linéaire sur E.


Définition 5.1.2. Soit f : E n → F une application n-linéaire, on dit que f est :
— symétrique : lorsque

∀ σ ∈ Sn , ∀ x1 , . . . , xn ∈ E, f (xσ(1) , . . . , xσ(n) ) = f (x1 , . . . , xn ).

— antisymétrique : lorsque

∀ σ ∈ Sn , ∀ x1 , . . . , xn ∈ E, f (xσ(1) , . . . , xσ(n) ) = ϵ(σ)f (x1 , . . . , xn ).

— alternée : lorsque

∀ x1 , . . . , xn ∈ E, s’il existe i, j ∈ {1, . . . , n} tels que i ̸= j et xi = xj , alors f (x1 , . . . , xn ) = 0.

Exemples 5.1.2. 1. L’application 3-linéaire f : R3 → R définie par f (x, y, z) = x + y + z est


symétrique.

53
54 CHAPITRE 5. DÉTERMINANTS

2. L’application 2-linéaire f sur R2 définie par

∀ u = (u1 , u2 ), v = (v1 , v2 ) ∈ R2 , f (u, v) = u1 v2 − u2 v1

est à la fois alternée et antisymétrique.


Proposition 5.1.1. Soit f : E n → F une application n-linéaire. Alors :
f est antisymétrique si, et seulement si elle est alternée.
Démonstration. Supposons que f est antisymétrique. Soit (x1 , . . . , xn ) ∈ E n , avec xi = xj et i ̸= j. On
considère la transposition τ = (ij), donc

f (xτ (1) , . . . , xτ (n) ) = ϵ(τ )f (x1 , . . . , xn ) = −f (x1 , . . . , xn )

D’où f (x1 , . . . , xn ) = 0, i.e. f est alternée.


Réciproquement, supposons que f est alternée. Soient x1 , . . . , xn ∈ E et soit τ = (ij) une transposition,
avec i, j ∈ {1, . . . , n}. Comme f est alternée il vient

f (x1 , . . . , xi−1 , xi + xj , xi+1 , . . . , xj−1 , xi + xj , xj+1 , . . . , xn ) = 0.

En développant par rapport à la i-ème variable puis par rapport à la j-ème variable, on obtient :

f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn )+ f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn )
+ f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn )
+ f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn )
=0

Il s’ensuit que

f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn ) = −f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn )
= ϵ(τ )f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn )

Mais comme toute permutation est un produit de transpositions, on en déduit que

∀ σ ∈ Sn , ∀ x1 , . . . , xn ∈ E, f (xσ(1) , . . . , xσ(n) ) = ϵ(σ)f (x1 , . . . , xn ).

D’où f est antisymétrique. ♣


On montre facilement le résultat suivant :
Proposition 5.1.2. L’ensemble des applications n-linéaires de E n vers F est un K-espace vectoriel.
L’ensemble des applications n-linéaires alternées de E n vers F est un K-espace vectoriel.
Supposons E de dimension p et soit B = (e1 , . . . , ep ) une base de E. Soient x1 , . . . , xn des vecteurs de
E, avec
Xp
xi = aj,i ej , ∀ 1 ≤ i ≤ n.
j=1

En développant par rapport à la première variable, on obtient :


X
f (x1 , . . . , xn ) = aj1 ,1 f (ej1 , x2 , . . . , xn )
1≤j1 ≤p

Puis on développe chacun de ces termes par rapport à la deuxième variable x2 , il vient
X
f (x1 , . . . , xn ) = aj1 ,1 aj2 ,2 f (ej1 , ej2 , x3 , . . . , xn )
1≤j1 ,j2 ≤p
5.2. DÉTERMINANT DANS UNE BASE 55

En procédant ainsi et en développant par rapport aux autres variables, on aura :


X
f (x1 , . . . , xn ) = aj1 ,1 aj2 ,2 · · · ajn ,n f (ej1 , ej2 , . . . , ejn ). (5.1)
1≤j1 ,j2 ,...,jn ≤p

Cette dernière forme s’appelle le développement de f (x1 , . . . , xn ) dans la base B. On voit qu’une appli-
cation n-linéaire est entièrement déterminée par la donnée des vecteurs de F :
f (ej1 , ej2 , . . . , ejn ), 1 ≤ j1 , j2 , . . . , jn ≤ p.

5.2 Déterminant dans une base


Dans cette section, E est un K-espace vectoriel de dimension finie n ≥ 1.
Définition 5.2.1. Une application n-linéaire à valeurs dans K s’appelle une forme n-linéaire sur E.
Soit B = (e1 , . . . , en ) une base de E. Si f est uneP forme n-linéaire alternée sur E, alors la relation 5.1
n
montre que pour tout x1 , x2 , . . . , xn ∈ E, avec xi = j=1 aj,i ej , ∀ 1 ≤ i ≤ n, on a :
X
f (x1 , . . . , xn ) = aj1 ,1 aj2 ,2 · · · ajn ,n f (ej1 , ej2 , . . . , ejn )
1≤j1 ,j2 ,...,jn ≤n
X
= aj1 ,1 aj2 ,2 · · · ajn ,n f (ej1 , ej2 , . . . , ejn )
1≤j1 ,j2 ,...,jn ≤n,distincts
X
= aσ(1),1 aσ(2),2 · · · aσ(n),n f (eσ(1) , eσ(2) , . . . , eσ(n) )
σ∈Sn
!
X
= ϵ(σ)aσ(1),1 aσ(2),2 · · · aσ(n),n f (e1 , e2 , . . . , en )
σ∈Sn

Il s’ensuit que
!
X
∀ x1 , x2 , . . . , xn ∈ E, f (x1 , . . . , xn ) = α ϵ(σ)aσ(1),1 aσ(2),2 · · · aσ(n),n
σ∈Sn
 
X
= α ϵ(σ)a1,σ−1 (1) a2,σ−1 (2) · · · an,σ−1 (n) 
σ −1 ∈Sn
!
X
=α ϵ(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) ,
σ∈Sn

avec α = f (e1 , . . . , en ).
Proposition 5.2.1. Soient B = (e1 , . . . , en ) une base de E et B ∗ = (e∗1 , e∗2 , . . . , e∗n ) sa base duale. Alors :
1. L’application f : E n → K définie par f (x1 , . . . , xn ) = e∗1 (x1 )e∗2 (x2 ) · · · e∗n (xn ) est une forme n-
linéaire sur E.
2. L’application g : E n → K définie par g(x1 , . . . , xn ) = σ∈Sn ϵ(σ)f (xσ(1) , xσ(2) , . . . , xσ(n) ) est une
P
forme n-linéaire alternée sur E.
Pn
3. Pour j = 1, . . . , n, posons xj = i=1 aij ei , alors
X
g(x1 , . . . , xn ) = ϵ(σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn
56 CHAPITRE 5. DÉTERMINANTS

4. g(e1 , . . . , en ) = 1.
Démonstration. 1. f est un produit de n formes linéaires sur E, donc c’est une forme n-linéaire sur
E.
2. Il est évident que g est n-linéaire. Montrons qu’elle est alternée. Soit τ une transposition de Sn .
Alors :
X
g(xτ (1) , xτ (2) , . . . , xτ (n) ) = ϵ(σ)f (xσ(τ (1)) , xσ(τ (2)) , . . . , xσ(τ (n)) )
σ∈Sn
X
= ϵ(σ)f (xσ′ (1) , xσ′ (2) , . . . , xσ′ (n) ) (σ ′ = σ ◦ τ )
σ ′ ∈Sn
X
=− ϵ(σ ′ )f (xσ′ (1) , xσ′ (2) , . . . , xσ′ (n) )
σ ′ ∈Sn

= −g(x1 , . . . , xn )

Comme toute permutation σ est un produit de transpositions, alors

∀ σ ∈ Sn ∀ x1 , . . . , xn ∈ E g(xσ(1) , xσ(2) , . . . , xσ(n) ) = ϵ(σ)g(x1 , . . . , xn ).

Ceci montre que σ est antisymétrique et donc alternée.

3. On a
X
g(x1 , . . . , xn ) = ϵ(σ)f (xσ(1) , xσ(2) , . . . , xσ(n) )
σ∈Sn
X
= ϵ(σ)e∗1 (xσ(1) )e∗2 (xσ(2) ) · · · e∗n (xσ(n) )
σ∈Sn
X
= ϵ(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ∈Sn

Pn
4. On a pour j = 1, . . . , n, ej = i=1 aij ei , avec aij = δij . Soit σ ∈ Sn , si σ ̸= id, alors il existe
i ∈ {1, . . . , n} tel que i ̸= σ(i). Donc f (eσ(1) , eσ(2) , . . . , eσ(n) ) = 0. Il s’ensuit que

g(e1 , . . . , en ) = f (e1 , . . . , en ) = e∗1 (e1 )e∗2 (e2 ) · · · e∗n (en ) = 1.


En combinant cette proposition et la discussion qui lui précède on obtient le résultat suivant :
Théorème 5.2.1. Si E est de dimension n, alors l’ensemble des formes n-linéaires alternées sur E à
valeurs dans K est un K-espace vectoriel de dimension 1 engendré par la forme n-linéaire g.
Définition 5.2.2. La forme n-linéaire alternée g s’appelle le déterminant dans la base B. On la note
detB .
Remarque 5.2.1. La forme n-linéaire detB est l’unique forme n-linéaire alternée sur E qui prend la
valeur 1 en (e1 , . . . , en ).
Soit B = (e1 , . . . , en ) une base de E et soient x1 , . . . , xn des vecteurs de E. Rappelons que la matrice
de la famille (x1 , . . . , xn ) dans la base B est la matrice carrée d’ordre n dont les colonnes sont les colonnes
des coordonnées des vecteurs xj , 1 ≤ j ≤ n dans la base B. Notons (ai,j ) cette matrice. Alors :
X
detB (x1 , . . . , xn ) = ϵ(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) .
σ∈Sn
5.3. DÉTERMINANT D’UN ENDOMORPHISME 57

Exemples 5.2.1. 1. Cas dim(E) = 2 : Soit B = (e1 , e2 ) une base de E et soient u = a11 e1 + a12 e2
et v = a21 e1 + a22 e2 deux vecteurs de E. On a S2 = {Id, (12)}. Alors
X
detB (u, v) = ϵ(σ)a1σ(1) a2σ(2) = a1,1 a2,2 − a12 a21 .
σ∈S2

1. Cas dim(E) = 3 : Soit B = (e1 , e2 , e3 ) une base de E et soient u = a11 e1 +a21 e2 +a31 e3 , v = a12 e1 +
a22 e2 +a32 e3 et w = a13 e1 +a23 e2 +a33 e3 trois vecteurs de E. On a S3 = {Id, (123), (132), (12), (13), (23)}.
Alors
X
detB (u, v, w) = ϵ(σ)a1σ(1) a2σ(2) a3σ(3)
σ∈S3

= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .

Proposition 5.2.2. Soit B = (e1 , . . . , en ) une base de E. On a les propriétés suivantes :


1. Si B ′ est une autre base de E, alors

∀ x1 , . . . , xn ∈ E, detB′ (x1 , . . . , xn ) = detB′ (e1 , . . . , en )detB (x1 , . . . , xn ).

2. La famille (x1 , . . . , xn ) est une base de E si et seulement si detB (x1 , . . . , xn ) ̸= 0.

Démonstration. 1. L’application detB′ est une forme n-linéaire alternée sur E, donc il existe α =
detB′ (e1 , . . . , en ) tel que detB′ = αdetB . Ceci prouve le résultat.
2. Supposons B ′ = (x1 , . . . , xn ) une base de E. D’après le premier point on a :

detB = detB (B ′ )detB′ .

Mais detB est non identiquement nulle, donc detB (B ′ ) est non nul.
Pour la réciproque on va procéder par contraposée. Supposons que la famille B ′ est liée, alors l’un
des vecteurs x1 , . . . , xn est une combinaison linéaire des autres. Puisque la forme detB est alternée
on aura detB (B ′ ) = 0.

5.3 Déterminant d’un endomorphisme


Dans cette section, E est un K-espace vectoriel de dimension finie n ≥ 1.
Soient B = (e1 , . . . , en ) et B ′ = (e′1 , . . . , e′n ) deux bases de E.

On a le résultat suivant :

Proposition 5.3.1. Soit u ∈ L(E) un endomorphisme de E. Alors :

detB (u(e1 ), . . . , u(en )) = detB′ (u(e′1 ), . . . , u(e′n )).

Démonstration. Soit f la forme n-linéaire alternée définie par :

∀ x1 , . . . , xn ∈ E, f (x1 , . . . , xn ) = detB′ (u(x1 ), u(x2 ), . . . , u(xn )).

On a f = f (e1 , . . . , en )detB . Donc

f (e′1 , . . . , e′n ) = f (e1 , . . . , en )detB (e′1 , . . . , e′n ).


58 CHAPITRE 5. DÉTERMINANTS

Alors

detB′ (u(e′1 ), . . . , u(e′n )) = detB′ (u(e1 ), . . . , u(en ))detB (e′1 , . . . , e′n )


= detB (e1 , . . . , en )detB (u(e1 ), . . . , u(en ))detB (e′1 , . . . , e′n )

Comme detB (B ′ )detB′ (B) = 1, il vient

detB (u(e1 ), . . . , u(en )) = detB′ (u(e′1 ), . . . , u(e′n )).


Ceci nous conduit à la définition suivante :
Définition 5.3.1. Soient B = (e1 , . . . , en ) une base de E et u ∈ L(E). On appelle déterminant de u, que
l’on note det(u), le scalaire detB (u(e1 ), . . . , u(en )).
Remarque 5.3.1. Le déterminant d’un endomorphisme est indépendant de la base choisie de E.
Exemple 5.3.1. Soit f l’endomorphisme de R2 [X] donné par ∀ P ∈ R2 [X] : f (P ) = XP ′ . On munit
R2 [X] de la base canonique B = (1, X, X 2 ). On a f (1) = 0, f (X) = X, f (X 2 ) = 2X 2 , donc la matrice
des coordonnées de la famille (f (1), f (X), f (X 2 )) dans la base B est
 
0 0 0
A= 0 1 0 
0 0 2

Alors det(f) = 0.
Soient B = (e1 , . . . , en ) une base de E et u ∈ L(E). Posons A = (aij ) = MatB (u), alors A est la
matrice de la famille (u(e1 ), . . . , u(en )) dans la base B. Ceci permet d’avoir l’expression du déterminant :
X
det(u) = ϵ(σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn

Proposition 5.3.2. Soient B = (e1 , . . . , en ) une base de E et u, v ∈ L(E). Alors on a les propriétés
suivantes :
1.
∀ x1 , . . . , xn ∈ E, detB (u(x1 ), u(x2 ), . . . , u(xn )) = det(u)detB (x1 , x2 , . . . , xn ).
2. det(u ◦ v) = det(u)det(v).
3. u est un automorphisme de E si, et seulement si det(u) ̸= 0. Dans ce cas, on a det(u−1 ) = 1
det(u) .

Démonstration. 1. On sait que la forme n-linéaire alternée f définie par f (x1 , . . . , xn ) = detB (u(x1 ), u(x2 ), . . . , u(xn ))
vérifie f = αdetB , avec

α = f (e1 , . . . , en )
= detB (u(e1 ), u(e2 ), . . . , u(en ))
= det(u).

D’où le résultat.
2. On a

det(u ◦ v) = detB (u(v(e1 )), u(v(e2 )), . . . , u(v(en )))


= det(u)detB (v(e1 ), v(e2 ), . . . , v(en ))
= det(u)det(v).
5.4. DÉTERMINANT D’UNE MATRICE CARRÉE 59

3. Si u est un automorphisme de E, alors u ◦ u−1 = idE . Donc

det(u ◦ u−1 ) = det(u)det(u−1 ) = det(idE ) = 1.

D’où det(u) ̸= 0. Réciproquement, si det(u) ̸= 0, alors (u(e1 ), . . . , u(en )) est une base de E et u
est un automorphisme de E.

5.4 Déterminant d’une matrice carrée


Définition 5.4.1. Soit A = (aij ) ∈ Mn (K). On appelle déterminant de A, que l’on note det(A), le
déterminant de l’endomorphisme de Kn canoniquement associé à A.
Si B est la base canonique de Kn , alors :

det(A) = detB (C1 , C2 , . . . , Cn ),

où C1 , C2 , . . . , Cn sont les colonnes de A.


Notation 5.4.1. Soit A = (aij ) ∈ Mn (K). On utilise la notation :

a11 a12 ··· a1n


a21 a22 ··· a2n
det(A) = .. .. .. ..
. . . .
an1 an2 ··· ann

On a les propriétés suivantes :


Proposition 5.4.1. Soit A, B ∈ Mn (K).
1. Si A = (aij ) est triangulaire supérieure alors det(A) = a11 a22 · · · ann .
2. det(AT ) = det(A).
3. Soit B une base de E et soit u ∈ L(E). Alors det(u) = det(MatB (u)).
4. det(AB) = det(A)det(B).
5. Une matrice carrée A est inversible si, et seulement si det(A) ̸= 0. Dans ce cas, on a det(A−1 ) =
1
det(A) .

Démonstration. Les points 3., 4. et 5. découlent directement de la proposition 5.3.2. Montrons les deux
premiers points.

1 Soit σ une permutation distincte de l’identité. Alors il existe j ∈ {1, . . . , n} tel que j > σ(j). Donc
ajσ(j) = 0. Il s’ensuit que a1,σ(1) a2,σ(2) · · · an,σ(n) ̸= 0 ⇐⇒ σ = id. D’où le résultat.
2. On a
X
det(A) = ϵ(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ∈Sn
X
= ϵ(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n
σ∈Sn

= det(AT ).


60 CHAPITRE 5. DÉTERMINANTS

Remarque 5.4.1. Si A = (aij ) est triangulaire inférieure alors AT est triangulaire supérieure. Il s’ensuit
que det(A) = det(AT ) = a11 a22 · · · ann .
Kn . Si A = (aij ) ∈ Mn (K) on note C1 , C2 , . . . , Cn les
Soit B = (e1 , . . . , en ) la base canonique de P
n
colonnes de A. Pour j = 1, . . . , n, on écrit Cj = i=1 aij ei . Comme le déterminant est n-linéaire on a :
n
X n
X
det(A) = aij detB (C1 , . . . , Cj−1 , ei , Cj+1 , . . . , Cn ) = aij Fij (A),
i=1 i=1

avec Fij (A) = detB (C1 , . . . , Cj−1 , ei , Cj+1 , . . . , Cn ).


Définition 5.4.2. On appelle cofacteur d’indices i, j de A, le scalaire Fij (A). C’est le déterminant de
la matrice obtenue à partir de A en remplaçant la j-ème colonne de A par le i-ème vecteur de la base
canonique de Kn .
Nous allons simplifier l’expression du cofacteur Fij (A) :

a1,1 ··· a1,j−1 0 a1,j+1 ··· a1,n


.. .. .. .. .. .. ..
. . . . . . .
ai−1,1 ··· ai−1,j−1 0 ai−1,j+1 ··· ai−1,n
Fij (A) =
ai,1 ··· ai,j−1 1 ai,j+1 ··· ai,n
.. .. .. .. .. .. ..
. . . . . . .
an,1 ··· an,j−1 0 an,j+1 ··· an,n

Pour amener la j-ème colonne en dernière position, on échange successivement les colonnes Cj et Cj+1
puis Cj+1 et Cj+2 , ... etc. Comme on a fait n − j échanges, le déterminant est multiplié par (−1)n−j .
De la même manière, on amène la i-ème ligne en dernière position et le déterminant est multiplié par
(−1)n−i . Il s’ensuit que Fij (A) = (−1)i+j det(B), où
 
a1,1 ··· a1,j−1 a1,j+1 ··· a1,n 0
 .. .. .. .. .. .. 

 . . . . . . 0 

 ai−1,1
 ··· ai−1,j−1 ai−1,j+1 ··· ai−1,n 0 

 ai+1,1
B = (bi,j ) =  ··· ai+1,j−1 ai+1,j+1 ··· ai+1,n 0 

 .. .. .. .. .. .. 

 . . . . . . 0 

 an,1 ··· an,j−1 an,j+1 ··· an,n 0 
ai,1 ··· ai,j−1 ai,j+1 ··· ai,n 1

Ceci montre que X


Fij (A) = (−1)i+j ϵ(σ)bσ(1),1 bσ(2),2 · · · bσ(n),n .
σ∈Sn
P
Puisque bσ(n),n = 0 si σ(n) ̸= n, alors dans l’expression σ∈Sn ϵ(σ)bσ(1),1 bσ(2),2 · · · bσ(n),n on ne retient
que les permutations σ telles que σ(n) = n. On obtient l’expression suivante du cofacteur :
X
Fij (A) = (−1)i+j ϵ(σ)bσ(1),1 bσ(2),2 · · · bσ(n−1),n−1 .
σ∈Sn−1

Définition 5.4.3. On appelle mineur d’indices i, j de la matrice A = (aij ), le déterminant de la matrice


obtenue en supprimant la i-ème ligne et la j-ème colonne de A. On le note ∆ij (A).
On obtient les formules suivantes qui sont très utiles pour le calcul et le développement du déterminant
d’une matrice carrée :
5.4. DÉTERMINANT D’UNE MATRICE CARRÉE 61

Proposition 5.4.2. Soit A = (aij ) ∈ Mn (K). Alors on a :


1.
Xn
det(A) = (−1)i+j aij ∆ij (A).
i=1
C’est le développement du déterminant de A suivant la j-ème colonne.
2.
n
X
det(A) = (−1)i+j aij ∆ij (A).
j=1

C’est le développement du déterminant de A suivant la i-ème ligne.


 
2 2 −1 3
 0 1 2 1 
Exemples 5.4.1. 1. Soit B = 
 0 0 3
 . On développe le déterminant suivant la première
1 
0 0 0 2
colonne. Alors
1 2 1
det(B) = 2 0 3 1 = 12.
0 0 2
 
a d e
2. Soit A =  0 b f , avec a, b, c, d, e, f des éléments de K. On développe le déterminant suivant
0 0 c
b f
la première colonne. Alors det(A) = a = abc.
0 c
 
a 0 0
3. Soit C =  d b 0 , avec a, b, c, d, e, f des éléments de K. On développe le déterminant suivant
e f c
b 0
la première ligne. Alors det(A) = a = abc.
f c
Définition 5.4.4. Soit A ∈ Mn (K). La matrice de Mn (K) dont les coefficients sont les cofacteurs Fij (A)
s’appelle la comatrice de A.
Com(A) = (Fij (A)).
Exemples 5.4.2.
On a le résultat suivant :
Proposition 5.4.3. Soit A ∈ Mn (K). Alors
ACom(A)T = Com(A)T A = det(A)In .
Pn
Démonstration. Soit (bij ) = ACom(A)T , alors pour 1 ≤ i, j ≤ n, on a bij = k=1 aik (−1)j+k ∆jk (A).
C’est exactement le déterminant de la matrice obtenue en remplaçant la j-ème ligne de A par la i-ème
ligne. Ceci montre que bij = det(A)δij .
De même, si (cij ) = Com(A)T A, alors pour 1 ≤ i, j ≤ n, cij est le déterminant de la matrice obtenue en
remplaçant la i-ème colonne de A par la j-ème colonne. Il s’ensuit que cij = det(A)δij . D’où le résultat.

On obtient la méthode dite de la comatrice pour le calcul de l’inverse d’une matrice inversible.
Corollaire 5.4.1. Si A ∈ Mn (K) est inversible alors
1
A−1 = Com(A)T .
det(A)
62 CHAPITRE 5. DÉTERMINANTS
Chapitre 6

Polynômes d’endomorphismes

Dans tout ce chapitre K désigne un corps commutatif et E est un espace vectoriel sur K de dimension
finie.

6.1 Définitions et propriétés


Dans cette section, nous introduisons la notion de polynômes d’endomorphismes qui est une notion
fondamentale dans la théorie de la réduction des endomorphismes. Soit u ∈ L(E) et A ∈ Mn (K) où n est
la dimension de E. On rappelle que u0 = IdE et que A0 = In .
Définition 6.1.1. Soit P = a0 + a1 X + · · · + ar X r un polynôme. L’évaluation de P en u est l’endomor-
phisme P (u) défini par
P (u) = a0 IdE + a1 u + · · · + ar ur
où uk = uk−1 ◦ u pour tout k ∈ N⋆ .
De même l’évaluation de P esn A est la matrice P (A) donnée par

P (A) = a0 In + a1 A + · · · + ar Ar

où Ak = Ak−1 A pour tout k ∈ N⋆ .


Exemples 6.1.1. 1) On munit R2 de sa base canonique (e1 , e2 ) et on considère l’endomorphisme f
de R défini par f (e1 ) = e1 + e2 et f (e2 ) = e1 − e2 . Déterminons P (f ) avec P = 2 − X + X 2 .
2

Pour cela on doit calculer f 2 . On a f 2 (e1 ) = f (e1 + e2 ) = 2e1 et f 2 (e2 ) = f (e1 − e2 ) = 2e2 . Donc
P (f ) = 2IdR2 − f + f 2 est donné par :

P (f )(e1 ) = 2e1 − f (e1 ) + f 2 (e1 ) = 3e1 − e2 P (f )(e2 ) = 2e2 − f (e2 ) + f 2 (e2 ) = −e1 + 5e2 .

2) Soit la matrice réelle  


1 0 1
B=  0 1 1 .
1 1 0
Déterminons la matrice P (B) avec P = 1 − 2X 2 + X 3 . On a P (B) = I3 − 2B 2 + B 3 . On doit
calculer les matrices B 2 et B 3 . On a :
 
2 1 1
B2 =  1 2 1 
1 1 2

63
64 CHAPITRE 6. POLYNÔMES D’ENDOMORPHISMES

et  
3 2 3
B3 =  2 3 3 .
3 3 2
Donc  
0 0 2
P (B) = I3 − 2B 2 + B 3 =  0 0 2 .
2 2 −1
On a la proposition suivante :
Proposition 6.1.1. Soient P et Q deux polynômes. Alors :
1. (P + Q)(u) = P (u) + Q(u) et (P Q)(u) = P (u) ◦ Q(u) = Q(u) ◦ P (u).
2. (P + Q)(A) = P (A) + Q(A) et (P Q)(A) = P (A)Q(A) = Q(A)P (A).
3. Relativement à une base de E, on a Mat(P (u)) = P (Mat(u)).
4. Si v est un isomorphisme de E, on a P (v −1 ◦ u ◦ v) = v −1 ◦ P (u) ◦ v.
5. P (tA) = tP (A).
6. Lorsque K = C, on a P (A) = P (A).
Pr Ps
Démonstration. Supposons que P = k=0 ak X k et Q = j=0 bj X j .
1. La relation (P + Q)(u) = P (u) + Q(u) découle directement de la définition.
Pr PMontrons que
s
(P Q)(u) = P (u) ◦ Q(u) = Q(u) ◦ P (u). On a (P Q)(X) = P (X)Q(X) = k=0 j=0 ak bj X k+j .
Donc Pr Ps
(P Q)(u) = uk+j
j=0 ak bjP
Pk=0
r s
k
= ( k=0 ak u ) ◦ ( j=0 bj uj )
Ps Pr
j
= ( j=0 bj u ) ◦ ( k=0 ak uk )
= Q(u) ◦ P (u) = P (u) ◦ Q(u)
2. Ce point se montre comme précédement.
3. Les relations Mat(v + w) = Mat(v) + Mat(w) et Mat(v ◦ w) = Mat(v)Mat(w) pour deux endomor-
phismes v, w ∈ L(E) permettent de conclure.
4. Si X k est un monôme, alors par simple récurrence, on a (v −1 ◦ u ◦ v)k = v −1 ◦ uk ◦ v. Le résultat
pour un polynôme s’en déduit facilement.
5. Ce point découle des deux résultats t(A + B) = tA + tB et t(Ak ) = (tA)k pour toutes matrices A et
B et tout entier positif k.
6. Ce point découle des deux résultats (A + B) = A + B et Ak = (A)k . ♣
Remarque 6.1.1. Les deux premiers points de la dernière proposition montrent que l’application

φ : K[X] → L(E)
P 7→ P (u)

est un homomorphisme d’anneaux de (K[X], +, ×) vers (L(E), +, ◦).


Exemple 6.1.1. Soit la matrice diagonale
 
λ1 0 ··· 0
 .. .. .. 
 0 . . . 
D= ..
.
 .. .. 
 . . . 0 
0 ··· 0 λn
6.2. POLYNÔME MINIMAL D’UN ENDOMORPHISME 65

Par une simple récurrence, on montre que pour tout k ∈ N, on a


 k 
λ1 0 ··· 0
 . .. .. .. 
 0 . . 
Dk =  . .
.
 .. .. .. 
. 0 
0 ··· 0 λkn

Donc pour tout polynôme P ∈ K[X], on obtient :


 
P (λ1 ) 0 ··· 0
 .. .. .. 
 0 . . . 
P (D) =  ..
.
 . . .. 
 . . . 0 
0 ··· 0 P (λn )

Soit F un sous-espace vectoriel de E. Lorsque F est stable par u, (u(F ) ⊂ F ), la restriction de u à F


est un endomorphisme de F . On l’applelle endomorphisme induit par u sur F et l’on note uF .
Proposition 6.1.2. Soit P un polynôme et F un sous-espace vectoriel de E.
1. Si F est stable par u, alors F est stable par P (u) et on a P (u)F = P (uF ).
2. Les sous-espaces vectoriels ImP (u) et KerP (u) sont stables par u.
Démonstration. 1. Supposons P (X) = a0 +a1 X +· · ·+ar X r . Soit x ∈ F . D’une part, on a P (u)(x) ∈
F puisque u(x) appartient à F . Donc F est stable par P (u). D’autre part, on a

P (u)(x) = (a0 IdE + a1 u + · · · + ar ur )(x)


= a0 x + a1 u(x) + · · · + ar ur (x)
= a0 x + a1 uF (x) + · · · + ar urF (x)
= (a0 IdF + a1 uF + · · · + ar urF )(x)
= P (uF )(x)

D’où P (u)F = P (uF ).


2. Soit x ∈ KerP (u), alors P (u)(u(x)) = u(P (u)(x)) = 0. Donc KerP (u) est stable par u. On montre
d’une manière similaire que ImP (u) est stable par u. ♣

6.2 Polynôme minimal d’un endomorphisme


Soit u ∈ L(E) et soit P ∈ K[X]. On dit que u annule P ou que P est un polynôme annulateur de u
si l’endomorphisme P (u) est identiquement nul. On note P (u) = 0.
On a la proposition suivante :
Proposition 6.2.1. L’ensemble des polynômes annulateurs de u est un idéal de K[X] non réduit à (0).
Démonstration. Le premier point de la proposition 6.1.1 permet de montrer que cet ensemble est un idéal
2
de K[X]. Puisque l’espace L(E) est de dimension n2 sur K, la famille (IdE , u, . . . , un ) est liée. Il existe
alors des scalaires a0 , a1 , . . . , an2 dans K, non tous nuls, tels que
2
a0 IdE + a1 u + · · · + an2 un = 0.

Il s’ensuit que l’idéal annulateur de u contient le polynôme non nul


2
a0 + a1 X + · · · + an2 X n .
66 CHAPITRE 6. POLYNÔMES D’ENDOMORPHISMES

Ceci termine la preuve. ♣


Puisque l’anneau K[X] est principal l’idéal de tous les polynômes annulateurs de u est principal. Il
est donc engendré par un unique polynôme unitaire. Ceci conduit à la définition suivante :

Définition 6.2.1. On appelle idéal annulateur de u l’idéal des polynômes annulateurs de u. L’unique
polynôme unitaire qui engendre cet idéal, que l’on note Mu , s’appelle le polynôme minimal de u.

De même un polynôme P ∈ K[X] est un polynôme annulateur d’une matrice A ∈ Mn (K) si la matrice
P (A) est nulle. L’ensemble de tous les polynômes annulateurs de A est un idéal de K[X] non réduit à
(0), engendré par un unique polynôme unitaire que l’on note MA et que l’on appelle polynôme minimal
de A.

Remarque 6.2.1. Le polynôme minimal Mu de u est l’unique polynôme non nul et unitaire caractérisé
par les deux propriétés suivantes :
1. Mu est unitaire,
2. ∀P ∈ K[X], Mu /P ⇐⇒ P (u) = 0.

La proposition suivante montre que le polynôme minimal de u ne dépend pas de la base dans laquelle
il est représenté.

Proposition 6.2.2. Si A est la matrice de u dans une base B de E, le polynôme minimal de A est égal
à celui de u.

Démonstration. La relation MatB P (u) = P (A) montre que u et A ont le même idéal annulateur. Ils ont
donc le même polynôme minimal. ♣

Remarques 6.2.1. 1. Si v est un isomorphisme de E, les endomorphismes v −1 ◦ u ◦ v et u ont le


même polynôme minimal.
2. Soit A ∈ Mn (K), alors A et t A ont le même polynôme minimal.
3. Soit A ∈ Mn (C), alors A et A ont des polynômes minimaux conjugués.

Exemples 6.2.1. 1. Le polynôme minimal de l’endomorphisme nul est le monôme X. Le polynôme


minimal de l’homothétie λIdE est le polynôme X − λ.
2. Soit F et G deux sous-espaces supplémentaires de E. Le polynôme minimal de la projection sur F
paralléllement à G est le polynôme X 2 − X. Le polynôme minimal de la symétrie par rapport à F
paralléllement à G est le polynôme X 2 − 1.
3. Le polynôme minimal d’un endomorphisme nilpotent d’indice de nilpotence r est le monôme X r .

La proposition suivante relie le polynôme minimal de u à celui d’un endomorphisme induit par u sur
un sous-espace stable par u.

Proposition 6.2.3. Soit F un sous-espace vectoriel de E stable par u. Le polynôme minimal de uF divise
celui de u.

Démonstration. La relation P (uF ) = P (u)F pour tout P ∈ K[X], montre que l’idéal annulateur de u est
contenu dans celui de uF . Il s’ensuit que Mu (uF ) = 0 et que MuF divise Mu . ♣

Exemple 6.2.1. Soit F et G deux sous-espaces supplémentaires de E. L’endomorphisme induit par la


projection sur F paralléllement à G est l’identité de F . Son polynôme minimal est X − 1 qui est un
diviseur de X 2 − X.
6.3. LEMME DES NOYAUX 67

Exercice 6.2.1. Soit n ≥ 2 un entier et J la matrice de Mn (R) donnée par


 
0 1 ··· 1
 1 0 ··· 1 
J = . . .
 
 .. .. ..
. 1 
1 ··· 1 0

1. Calculer MJ (X).
2. Calculer J k pour tout k ∈ N.

6.3 Lemme des noyaux


Soit u ∈ L(E). Le résultat suivant est très utile en algèbre linéaire. Il sert aussi à résoudre les équations
différentielles linéaires à coefficients constants.
Théorème 6.3.1. (Lemme des noyaux)
Soit P1 , . . . , Pr des polynômes de K[X] premiers entre eux deux à deux et soit P = P1 · · · Pr . On a

Ker(P (u)) = Ker(P1 (u)) ⊕ · · · ⊕ Ker((Pr (u)).

Démonstration. Il est claire que Ker((Pi (u)) ⊂ Ker(P (u)) pour tout i ∈ {1, . . . , r}. Donc

Ker(P1 (u)) + · · · + Ker((Pr (u)) ⊂ Ker(P (u)).


Q
Montrons alors l’autre inclusion. Pour i ∈ {1, . . . , r}, soit Qi = j̸=i Pj . Alors les polynômes Qi sont
premiers entre eux dans leur ensemble. Supposons le contraire et soit D un diviseur commun des Qi . Sans
perte de généralité, on peut supposer que D est irréductible. Puisque D divise Q1 il existe i1 ̸= 1 tel que
D divise Pi1 . Mais D divise Qi1 , donc il existe i2 ̸= i1 tel que D divise Pi2 . Ceci contredit l’hypothèse
que Pi1 et Pi2 sont premiers entre eux.
Par l’identité de Bézout, il existe des polynômes A1 , . . . , Ar tels que

1 = A1 Q1 + · · · + Ar Qr .

Evaluons les deux membres de cette équation en u on obtient

IdE = (A1 Q1 )(u) + · · · + (Ar Qr )(u).

Il s’ensuit que
∀x ∈ Ker(P (u)), x = (A1 Q1 )(u)(x) + · · · + (Ar Qr )(u)(x).
Puisque pour tout i dans {1, . . . , r}, Pi (u)((Ai Qi )(u)(x)) = (Ai Pi Qi (u))(x) = Ai (u) ◦ P (u)(x) = 0, on
obtient x ∈ Ker(P1 (u)) + · · · + Ker((Pr (u)).
Il reste à montrer que la somme Ker(P1 (u)) + · · · + Ker((Pr (u)) est directe. Soit k ∈ {2, . . . , r} et soit
x ∈ Ker(Pk (u)) ∩ ((Ker(P1 (u)) + · · · + Ker((Pk−1 (u))). On a alors x = x1 + · · · + xk−1 avec Pk (u)(x) = 0
et Pi (u)(xi ) = 0 pour i dans {1, . . . , k − 1}. Puisque les Pi sont premiers entre eux deux à deux, les deux
polynômes Pk et P1 · · · Pk−1 sont premiers entre eux. Il existe alors deux polynômes A et B tels que

1 = APk + BP1 · · · Pk−1 .

En évaluant les deux membres de cette relation en u, on aura

IdE = (Ak Pk )(u) + (BP1 · · · Pk−1 )(u).


68 CHAPITRE 6. POLYNÔMES D’ENDOMORPHISMES

Donc
x = (Ak Pk )(u)(x) + (BP1 · · · Pk−1 )(u)(x)
Pk−1
= Ak (u) ◦ Pk (u)(x) + i=0 (BP1 · · · Pk−1 )(u)(xi )
= 0.
D’où la somme est directe et on a :

Ker(P (u)) = Ker(P1 (u)) ⊕ · · · ⊕ Ker((Pr (u)).


Remarques 6.3.1. 1. On peut montrer le lemme des noyaux par récurrence sur le nombre de poly-
nômes Pi .
2. Le lemme des noyaux reste vrai pour les espaces vectoriels de dimension infinie.
Corollaire 6.3.1. Soit P1 , . . . , Pr des polynômes de K[X] premiers entre eux deux à deux et soit P =
P1 · · · Pr . Si P est un polynôme annulateur de u alors on a :

E = Ker(P1 (u)) ⊕ · · · ⊕ Ker((Pr (u)).

Corollaire 6.3.2. Soit P1 , . . . , Pr des polynômes de K[X] premiers entre eux deux à deux et soit P =
P1 · · · Pr . Si P estPun polynôme annulateur de u alors pour tout i ∈ {1, . . . , r}, la projection sur Ker(Pi (u))
paralléllement à k̸=i Ker(Pk (u)) est un polynômle en u.
Démonstration. On reprend les notations de la démonstration du dernier théorème. Puisque

E = Ker(P1 (u)) ⊕ · · · ⊕ Ker((Pr (u))

on a
∀x ∈ E, x = (A1 Q1 )(u)(x) + · · · + (Ar Qr )(u)(x),

P (Ai Qi )(u)(x) ∈ Ker(Pi (u)) pour i ∈ {1, . . . , r}. Si πi est la projection sur Ker(Pi (u)) paralléllement
avec
à k̸=i Ker(Pk (u)), alors πi (x) = (Ai Qi )(u)(x) pour tout x ∈ E. D’où πi = (Ai Qi )(u) est un polynôme
en u. ♣
Exemples 6.3.1. 1. Soit F et G deux sous-espaces supplémentaires de E. Soit p la projection sur
F paralléllement à G. Nous avons vu que Mp (X) = X 2 − X = X(X − 1). En appliquant le lemme
des noyaux, on obtient :

E = Ker(p2 − p) = Ker(p − IdE ) ⊕ Ker(p) = F ⊕ G.

2. Soit la matrice de M2 (R) :  


2 1
A= .
3 4
Soit uA l’endomorphisme canoniquement associé à A. Calculons Ker(u3A − IdR3 ). D’après le lemme
des noyaux, on a Ker(u3A −IdR3 ) = Ker(uA −IdR2 )⊕Ker(u2A +uA +IdR2 ). Comme Ker(uA −IdR2 ) =
Vect{e1 − e2 } et Ker(u2A + uA + IdR2 ) = {0} il vient Ker(u3A − IdR3 ) = Vect{e1 − e2 }.
3. On munit R3 de sa base canonique (e1 , e2 , e3 ) et on considère l’endomorphisme f de R3 donné
par :
f (e1 ) = 2e1 , f (e2 ) = e1 + 2e2 , f (e3 ) = −e1 + e2 + e3 .
On voit facilement que (f − 2IdR3 )2 (f − IdR3 ) = 0. En faisant des calculs simples, on obtient
Ker((f − 2IdR3 )2 ) = Vect{e1 , e2 } et Ker(f − IdR3 ) = Vect{2e1 − e2 + e3 }. En appliquant le lemme
des noyaux, on aura :
R3 = Ker((f − 2IdR3 )2 ) ⊕ Ker(f − IdR3 )
= Vect{e1 , e2 } ⊕ Vect{2e1 − e2 + e3 }.
6.3. LEMME DES NOYAUX 69

4. Soit à résoudre l’équation différentielle linéaire y” + y = 0. On cherche les solutions dans C ∞ (R, C)
l’espaces des fonctions de classe C ∞ de R dans C.
En considérant l’endomorphisme

D : C ∞ (R, C) → C ∞ (R, C)
f 7→ f′

l’équation différentielle en question devient P (D)(y) = 0 où P est le polynôme

X 2 + 1 = (X − i)(X + i).

Le lemme des noyaux permet d’obtenir l’ensemble des solutions Ker(P (D)) :

Ker(P (D)) = Ker(D − iId) ⊕ Ker(D + iId)


= {y ∈ C ∞ (R, C) : D(y) − iy = 0} ⊕ {y ∈ C ∞ (R, C) : D(y) + iy = 0}
= {αeit : α ∈ C} ⊕ {βe−it : β ∈ C}
= {αeit + βe−it : α, β ∈ C}.
70 CHAPITRE 6. POLYNÔMES D’ENDOMORPHISMES
Chapitre 7

Réduction d’endomorphismes
diagonalisables

Les notions que nous développons dans ce chapitre pour les endomorphismes s’appliquent d’une ma-
nière naturelle aux matrices en considérant les endomorphismes canoniquement associés.
On rappelle que K désigne un corps commutatif, E est un espace vectoriel sur K de dimension finie et u
est un endomorphisme de E.

7.1 Valeurs propres et vecteurs propres


Définition 7.1.1. On dit qu’un scalaire λ ∈ K est une valeur propre de u s’il existe un vecteur non nul
x de E tel que u(x) = λx. Dans ce cas, le vecteur x s’appelle un vecteur propre de u associé à la valeur
propre λ.

Remarque 7.1.1. Un scalaire λ est une valeur propre de u si et seulement si l’endomorphisme u − λIdE
n’est pas injectif, ce qui revient au même, si et seulement si u − λIdE n’est pas bijectif. En partculier, le
scalaire 0 est une valeur propre de tout endomorphisme non injectif.

Exemples 7.1.1. 1. Soit l’endomorphisme f de R3 [X] donné par f (P ) = P ′ . Pour toute constante
c ∈ R, on a u(c) = c′ = 0. Donc 0 est une valeur propre de f et toute constante non nulle en est
un vecteur propre associé à la valeur propre 0.
2. Soient F et G deux sous espaces non nuls de E tels que E = F ⊕ G. Soit p la projection sur F
paralléllement à G. On a ∀x ∈ F, p(x) = x, donc 1 est une valeur propre de p et tout vecteur non
nul de F en est un vecteur propore associé.
3. On munit C3 de sa base canonique (e1 , e2 , e3 ) et on considère la matrice de M3 (C) :
 
i 1 0
A =  −i i 0  .
−i i i

Si uA est l’endomorphisme canoniquement associé à A, alors uA (e3 ) = ie3 . Donc i est une valeur
propre de A et e3 en est un vecteur propre associé.

Définition 7.1.2. On appelle sous-espace propre de u associé à la valeur propre λ, le sous-espace vectoriel
de E :
Eλ (u) = Ker(u − λIdE ).

71
72 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Lorsqu’il n’y a pas de confusion, on note Eλ (u) seulement Eλ . Un vecteur non nul x ne peut pas être
un vecteur propre associé à deux valeurs propres distinctes. Autrement dit, si λ et µ sont deux valeurs
propres distinctes alors Eλ ∩ Eµ = {0}.
Le résultat suivant montre que deux endomorphismes conjugués, donc deux matrices semblables, ont les
mêmes valeurs propres :
Proposition 7.1.1. Pour tout isomorphisme v de E, les endomorphismes v −1 ◦ u ◦ v et u ont les mêmes
valeurs propres.

Démonstration. Soit λ une valeur propre de u et soit x un vecteur propre associé. La relation v −1 ◦ u ◦
v(v −1 (x)) = λv −1 (x) montre que λ est une valeur propre de v −1 ◦ u ◦ v puisque v −1 (x) est un vecteur
non nul. La réciproque est évidente. ♣
Remarque 7.1.2. On vient de montrer que si x est un vecteur propre de u, alors v −1 (x) est un vecteur
propre de v −1 ◦ u ◦ v. Les sous espaces propres de u et de v −1 ◦ u ◦ v sont liés par la relation suivante :

v −1 (Eλ (u)) = Eλ (v −1 ◦ u ◦ v).

Définition 7.1.3. On appelle spectre de u, et l’on note Sp(u), l’ensemble des valeurs propres de u.
La proposition suivante relie les valeurs propres de u et les polynômes annulateurs de u.
Proposition 7.1.2. 1. Soit x un vecteur propre de u associé à une valeur propre λ, alors pour tout
polynôme P , on a :
P (u)(x) = P (λ)x.
C’est à dire, P (λ) est une valeur propre de P (u).
2. Si P est un polynôme annulateur de u, on a P (λ) = 0 pour toute valeur propre λ de u.
Pr
Démonstration. 1. Soit P = k=0 ak X k ∈ K[X]. Pour tout k ∈ N, on a uk (x) = λk x. Donc
Pr
P (u)(x) = (P k=0 ak uk )(x)
r
= Pk=0 ak uk (x)
r
= Pk=0 ak λk x
r
= ( k=0 ak λk )x
= P (λ)x.

2. La relation P (u)(x) = P (λ)x montre que P (λ)x = 0 et comme x est non nul, il vient P (λ) = 0.

Le théorème suivant donne une caractérisation des valeurs propres de u.
Théorème 7.1.1. Les valeurs propres de u sont les racines dans K de son polynôme minimal.

Démonstration. Soit Mu le polynôme minimal de u. La proposition précédente montre que toute valeur
propre de u est une racine de Mu . Montrons la réciproque. Supposons que λ ∈ K est une racine de Mu
sans qu’elle soit une valeur propre de u. Le polynôme Mu s’écrit alors Mu = (X − λ)N avec N ∈ K[X].
Evaluons les deux membres de l’équation en u, on obtient

(u − λIdE ) ◦ N (u) = Mu (u) = 0.

Comme λ n’est pas une valeur propre de u, l’endomorphisme u − λIdE est inversible. Il s’ensuit que
N (u) = 0, ce qui contredit la minimalité de Mu . ♣
Exemples 7.1.2. 1. Puisque le polynôme minimal d’un projecteur est X 2 − X, alors les valeurs
propres d’un projecteur sont 0 et 1.
7.2. POLYNÔME CARACTÉRISTIQUE 73
 
1 2
2. Soit A = . On a MA (X) = (X − 1)(X − 5), donc les valeurs propres de A sont 1 et 5.
0 5
3. Soit u un endomorphisme nilpotent d’indice de nilpotence r. Le polynôme minimal de u est X r ,
donc Sp(u) = {0}. On remarque alors que deux endomorphismes peuvent avoir le même spectre
sans être conjugués.
Le résultat suivant sera très utile dans la suite :
Proposition 7.1.3. Soit λ une valeur propre de u, alors Eλ est stable par tout endomorphisme qui
commute avec u.

Démonstration. Soit v ∈ L(E) commuttant avec u et soit x ∈ Eλ . La relation u(v(x)) = v(u(x)) =


v(λx) = λv(x) permet de conclure. ♣
Une application du lemme des noyaux (théorème 6.3.1) est le résultat suivant :
Théorème 7.1.2. Soit λ1 , . . . , λp des valeurs propres de u distinctes deux à deux. Alors la somme
Eλ1 + · · · + Eλp est directe.

Démonstration. Il suffit de remarquer que les polynômes X − λk pour k ∈ {1, . . . , p} sont premiers entre
eux deux à deux puis appliquer le lemme des noyaux pour conclure. ♣
Corollaire 7.1.1. La réunion de familles de vecteurs propres associés à des valeurs propres distinctes
deux à deux est libre.
Corollaire 7.1.2. Le nombre de valeurs propres de u est inférieur ou égal à la dimension de E.
Remarques 7.1.1. 1. Un endomorphisme nilpotent admet une seule valeur propre qui est le scalaire
0.
2. Une matrice diagonale de Mn (K) à éléments diagonaux distincts deux à deux admet n valeurs
propres disctinctes deux à deux.

7.2 Polynôme caractéristique


Dans cette section nous introduisons la notion de polynôme caractéristique d’un endomorphisme ou
d’une matrice. Ce polynôme nous donne un moyen pratique pour le calcul des valeurs propres.
Soit u ∈ L(E) et soit n la dimension de E.
Proposition 7.2.1. Soit A ∈ Mn (K). Le déterminant de la matrice XIn − A est un polynôme en X,
unitaire et de degré n. De plus, ce polynôme a la forme suivante :

χA (X) = X n − tr(A)X n−1 + · · · + (−1)n detA.

Démonstration. Il est clair que det(XIn − A) est un polynôme de K[X].


Supposons que A = (ai,j )1≤i,j≤n et montrons la deuxième assertion par récurrence sur n. Elle est évidente
pour n = 1. Supposons la vraie pour les matrices d’ordre inférieur ou égal à n − 1 et montrons la pour
les matrices d’ordre n. En développant ce déterminant suivant la première colonne, on obtient :

det(XIn − A) = (X − a11 )det(XIn−1 − A11 ) + Q(X),

où A11 est la sous-matrice de A obtenue en supprimant la première ligne et la première colonne de A et


Q(X) est un polynôme de degré inférieur ou égal à n − 2. Par hypothèse de récurrence il vient :

χA (X) = (X − a11 )(X n−1 − (a22 + · · · + ann )X n−2 + · · · + (−1)n−1 detA11 ) + Q(X)
= X n − (a11 + a22 + · · · + ann )X n−1 + Q′ (X)
74 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

où Q′ (X) est un polynôme de dgré inférieur ou égal à n−2. Donc les termes de degrés n et n−1 sont X n et
−tr(A)X n−1 . On obtient le terme constant de χA (X) en l’évaluant à 0 : χA (0) = det(−A) = (−1)n det(A).

Définition 7.2.1. Soit A ∈ Mn (K). Le polynôme det(XIn −A), que l’on note χA (X), s’appelle le polynôme
caractéristique de A.

Remarque 7.2.1. Certains auteurs définissent le polynôme caractéristique d’une matrice A comme étant
le déterminant de la matrice A − XIn . On note que les deux polynômes ont les mêmes racines puisque
det(XIn − A) = (−1)n det(A − XIn ) et par conséquent, ils réalisent les mêmes propriétés concernant la
matrice A.

Exemples 7.2.1. 1. Soit la matrice A de M3 (R) :

 
1 −2 −1
A= 3 −1 −4  .
0 −5 3

Le polynôme caractéristique de A est :

χA (X) = det(XI3 − A)
X −1 2 1
= −3 X +1 4
0 5 X −3
X +2 2 1
= X +2 X +1 4
X +2 5 X −3

1 2 1
= (X + 2) 1 X +1 4
1 5 X −3
1 2 1
= (X + 2) 0 X −1 3
0 3 X −4

= (X + 2)(X 2 − 5X − 5).

2. Soit la matrice B de M4 (C) :

 
i 0 1 −i
 1 0 −i i 
B= .
 0 1 i −i 
−i i 0 1
7.2. POLYNÔME CARACTÉRISTIQUE 75

Le polynôme caractéristique de B est :

χB (X) = det(XI4 − B)
X −i 0 −1 i
−1 X i −i
=
0 −1 X − i i
i −i 0 X −1
X −1 0 −1 i
X −1 X i −i
=
X − 1 −1 X − i i
X − 1 −i 0 X −1
1 0 −1 i
1 X i −i
= (X − 1)
1 −1 X − i i
1 −i 0 X −1

1 0 −1 i
0 X i+1 −2i
= (X − 1)
0 −1 X −i+1 0
0 −i 1 X −i−1

X i+1 −2i
= (X − 1) −1 X −i+1 0
−i 1 X −i−1

= (X − 1)(X − 2i)(X 2 + i + 1).

Remarques 7.2.1. 1. Le polynôme caractéristique de la matrice (a) ∈ M1 (K) est X − a.


 
a b
2. Le polynôme caractéristique de la matrice ∈ M2 (K) est le polynôme (X − a)(X − d) −
c d
bc = X 2 − (a + d)X + ad − bc.
3. χt A (X) = χA (X) pour toute matrice A ∈ Mn (K).
4. χA (X) = χA (X) pour toute matrice A ∈ Mn (C).
5. Le polynôme
Qn caractéristique d’une matrice triangulaire supérieure d’éléments diagonaux a11 , . . . , ann
est i=1 (X − aii ).
6. Le polynôme caractéristique de la matrice scalaire λIn est (X − λ)n .

La proposition suivante permet de définir le polynôme caractéristique d’un endomorphisme de E.

Proposition 7.2.2. Deux matrices semblables ont le même polynôme caractéristique.

Démonstration. Soit A, P ∈ Mn (K) avec P inversible. La relation

det(XIn − P−1 AP) = det(P−1 (XIn − A)P) = det(XIn − A)

donne le résultat. ♣
On peut maintenant définir le polynôme caractéristique d’un endomorphisme.

Définition 7.2.2. Le polynôme caractéristique de u, que l’on note χu (X), est le polynôme caractéristique
de toute matrice représentant u.

Le théorème suivant donne un outil pratique pour le calcul des valeurs propres.
76 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Théorème 7.2.1. Un scalaire λ ∈ K est une valeur propre de u si et seulement si c’est une racine de
χu (X).

Démonstration. Le scalire λ est une valeur propre de u si et seulement si u − λIdE n’est pas inversible,
ce qui revient au même, si et seulement si χu (λ) = det(u − λIdE ) = 0. ♣

Exemples 7.2.2. 1. Les valeurs propres d’une matrice triangulaire T sont les éléments diagonaux
de T .
2. Soit A la matrice de M3 (R) :  
1 1 1
A =  −1 −2 −1  .
−1 1 −1
Le polynôme caractéristique de A est χA (X) = X(X 2 + 2X + 2). La matrice A admet une valeur
propre réelle, 0, et deux valeurs propres cpmplexes conjuguées −1 + i et −1 − i.

Corollaire 7.2.1. 1. Un endomorphisme de E a au plus n valeurs propres distinctes.


2. Si K = R et si n est impair, alors u a au moins une valeur propre.
3. Si K = C, alors u a au moins une valeur propre.

La proposition suivante relie le polynôme caractéristique de u et celui de l’endomorphisme induit par


u sur un sous espace stable par u.

Proposition 7.2.3. Si F est un sous-espace vectoriel de E stable par u, on a χuF divise χu .

Démonstration. Soit B = (e1 , . .. , ep , . . . , 


en ) une base de E, où (e1 , . . . , ep ) est une base de F . La matrice
A B
de u dans B est de la forme où A est la matrice de uF dans (e1 , . . . , ep ). Le polynôme
0 D
caractéristique de u est

XIp − A −B
= det(XIp − A)det(XIn−p − D).
0 XIn−p − D

Ce qui montre que χuF divise χu . ♣

Exemple 7.2.1. On munit R3 de sa base canonique B = (e1 , e2 , e3 ) et on considère l’endomorphisme f


donné par
f (e1 ) = 2e2 − e3 , f (e2 ) = e1 + e3 , f (e3 ) = e1 + 2e2 .
Le polynôme caractéristique de f est égal au polynôme X 3 − 3X. Calculons le polynôme caractéristique
de l’endomorphisme induit par f sur Im(f ). On a Im(f ) = Vect{v1 , v2 } avec v1 = f (e1 ) et v2 = f (e2 ).
Puisque f (v1 ) = −v1 + v2 et f (v2 ) = 2v1 + v2 , alors la matrice de l’endomorphisme induit par f sur
Im(f ) est  
−1 2
.
1 1
Son polynôme caractéristique est égal au polynôme X 2 − 3 qui est bien un diviseur de X 3 − 3X.

Définition 7.2.3. On appelle multiplicité d’une valeur propre λ de u, et l’on note m(λ), sa multiplicité
en tant que racine du polynôme caractéristique de u.

Comme corollaire de la proposition précédente, on obtient :

Corollaire 7.2.2. Pour tout λ ∈ Sp(u), on a 1 ≤ dim(Eλ ) ≤ m(λ).


7.2. POLYNÔME CARACTÉRISTIQUE 77

Démonstration. Soit n(λ) la dimension de Eλ . Il est clair que 1 ≤ n(λ). L’endomorphisme u1 induit par
u sur Eλ coincide avec l’homothétie λIdEλ . Son polynôme caractéristique vaut (X − λ)n(λ) . Comme il
divise χu (X) on obtient l’autre inégalité n(λ) ≤ m(λ). ♣

Remarque 7.2.2. Si λ est une valeur propre de multiplicité 1, alors le sous espace propre Eλ est de
dimension 1.

Proposition 7.2.4. Le polynôme caractéristique de la matrice compagnon d’un polynôme unitaire P de


K[X] est égal à P .

Démonstration. A faire en exercice. ♣


Nous énonçons maintenant un théorème très important en algèbre linéaire et dans la théorie des
matrices.

Théorème 7.2.2. (Cayley-Hamilton)


Le polynôme caractéristique de u est un polynôme annulateur de u, c’est à dire χu (u) = 0.

Démonstration. Soit x ∈ E. Notons F le sous-espace vectoriel Ex et P le polynôme u-minimal de x.


Le sous-espace F est stable par u et d’après la proposition ??, la matrice de uF dans une base conve-
nable est la matrice compagnon de P . Il s’ensuit que son polynôme caractéristique vaut P d’après la
proposition précédente. Par conséquent P divise χu et χu (u)(x) = 0. Cela étant vrai pour tout x ∈ E,
l’endomorphisme χu (u) est identiquement nul. ♣

Remarque 7.2.3. Le théorème de Cayley-Hamilton peut se démontrer d’une autre manière. On le prouve,
en premier, pour les endomorphismes scindés, puis on le généralise au cas général en admettant que tout
corps admet une clôture algébrique.

Exemples 7.2.3. 1. Soit f l’endomorphisme donné dans l’exemple 7.2.1. On a χf (X) = X 3 − 3X,
donc l’endomorphisme χf (f ) = f 3 − 3f est identiquement nul.
2. Soit la matrice
 
2 −1 −1
A= 1 0 −1  .
−1 1 2

On vérifie facilement que


χA (X) = X 3 − 4X 2 + 5X − 2.

D’où
χA (A) = A3 − 4A2 + 5A − 2I3 = 0.

Corollaire 7.2.3. Le polynôme minimal Mu de u divise son polynôme caractéristique χu . De plus, ils
ont les mêmes facteurs irréductibles.

Parmi les applications du théorème de Cayley-Hamilton, nous citons :


1. Test de l’inversibilité d’une matrice et calcul de son inverse dans le cas affirmatif.
2. Calcul des puissances successives de matrices.
78 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Calcul de l’inverse d’une matrice

Proposition 7.2.5. Soit A ∈ Mn (K) de polynôme caractéristique χA (X) = a0 + a1 X + · · · + an−1 X n−1 +


X n . Alors A est inversible si et seulement si a0 ̸= 0. Si A est inversible alors,

−1
A−1 = (a1 In + · · · + an−1 An−2 + An−1 ).
a0

Démonstration. C’est une conséquence de la proposition 7.2.1. En effet, la relation a0 = (−1)n det(A)
permet de voir que A est inversible si, et seulement si, a0 ̸= 0.
Si a0 ̸= 0, alors la relation
a0 In + a1 A + · · · + an−1 An−1 + An = 0
implique
a0 In = −A(a1 In + · · · + an−1 An−2 + An−1 ).
D’où
−1
A−1 = (a1 In + · · · + an−1 An−2 + An−1 ).
a0

Exemple 7.2.2. Soit la matrice  


2 −1 −1
A= 1 0 −1  .
−1 1 2
Son polynôme caractéristique est

χA (X) = X 3 − 4X 2 + 5X − 2.

D’où A est inversible puisque χA (0) = det(A) = 2 ̸= 0. D’autre part la relation

A3 − 4 A2 + 5 A − 2 I3 = 0.

permet d’obtenir  
1 1 1
1 2 1 
A−1 = (A − 4 A + 5 I3 ) = −1 3 1 .
2 2
1 −1 1

Calcul des puissances successives d’une matrice Soit A ∈ Mn (K) et soit k ∈ N∗ . On suppose que
A admet toutes ses valeurs propres dans K et notre but est de déterminer la puissance k ième de A.
La division euclidienne de X k par χA (X) donne lieu à une relation de la forme

(∗) X k = χA (X) Q(X) + R(X) avec deg(R(X)) < n.

Supposons R(X) = a0 + a1 X + · · · an−1 X n−1 , avec a0 , . . . , an−1 ∈ K. En évaluant la relation (∗) en A


et en appliquant le théorème de Cayley-Hamilton, il vient Ak = R(A). Le calcul de Ak revient donc à
déterminer les coefficients du polynôme R.
Soit λ une valeur propre de A de multiplicité m. On attribue à X la valeur λ dans la relation (∗), puis on
dérive cette relation m − 1 fois en attribuant à X la valeur λ après chaque dérivation. Cette opération
donne lieu à m équations linéaires dont les inconnues sont a0 , a1 , . . . , an−1 . L’application de ce processus à
toutes les valeurs propres de A donne lieu à un système linéaire compatible à n équations et n inconnues.
Ainsi, les coefficients de R sont obtenus en résolvant ce dernier système.
7.2. POLYNÔME CARACTÉRISTIQUE 79

Exemple 7.2.3. Soit la matrice de M3 (R) :


 
0 1 0
A= 1 0 1 .
1 1 1

Calculons Ak pour tout k ∈ N∗ .


On vérifie facilement que :
χA (X) = X (X + 1) (X − 2).
Donc A admet 3 valeurs propres simples 0, −1 et 2.
La division euclidienne de X k par χA (X) dans R [X] donne :

X k = χA (X) Q(X) + (ak X 2 + bk X + ck )

où Q(X) ∈ R[X] et ak , bk , ck ∈ R.
En attribuant à X les valeurs 0, −1 et 2 on obtient

1  k−1 1  k−1
+ (−1)k , bk = + 2 (−1)k−1 et ck = 0.
 
ak = 2 2
3 3
En outre, la relation
X k = χA (X) Q(X) + (ak X 2 + bk X + ck )
entraîne que
Ak = χA (A) Q(A) + (ak A2 + bk A + ck I3 ).
Comme χA (A) = 0, d’après le théorème de Cayley-Hamilton, on a
 k−1 
2 + (−1)k 2k−1 + 2(−1)k−1 2k−1 + (−1)k
Ak = ak A2 + bk A + ck I3 = 13  2k + (−1)k−1 2k + 2(−1)k 2k + (−1)k−1  .
 

3 .2k−1 3 .2k−1 3 .2k−1

Exemple 7.2.4. Dans M3 (R), soit la matrice


 
4 0 3
B =  −6 −2 −3  .
−6 0 −5

Calculons B k pour tout k ∈ N∗ .


On a χB (X) = (X − 1)(X + 2)2 , donc B admet deux valeurs propres : 1 simple et −2 double.
La division euclidienne de X k par χB (X) dans R [X] donne :

X k = χB (X) Q(X) + ak X 2 + bk X + ck (7.1)

où Q(X) ∈ R[X] et ak , bk , ck ∈ R.
Dans l’équation 7.1, on attribue à X les valeurs 1 et −2. On obtient deux équations linéaires en ak , bk
et ck . En dérivant la même équation et en attribuant à X la valeur −2, on obtient une autre équation
linéaire en ak , bk et ck . Ceci conduit au système linéaire :

 ak + bk + ck = 1
4ak − 2bk + ck = (−2)k
−4ak + bk = (−2)k−1 k

80 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

L’étude de ce système donne les solutions suivantes :


k 1+k
ak = 1/9 + 1/6 (−1) k2k + 1/9 (−1) 2k
k k 1+k k
bk = 4/9 + 1/6 (−1) k2 + 4/9 (−1) 2
1+k k k k
ck = 4/9 + 1/3 (−1) k2 + 5/9 (−1) 2 .

En évaluant les deux membres de l’équation 7.1, on obtient la relation

B k = χB (B) Q(B) + ak B 2 + bk B + ck I3 .

On applique le théorème de Cayley-Hamilton et on aura :

B k = ak B 2 + bk B + ck I3 .

Définition 7.2.4. L’endomorphisme u est scindé sur K si son polynôme caractéristique est scindé sur
K. Il est scindé simple si les racines du polynôme caractéristique sont toutes simples.

Proposition 7.2.6. Supposons u scindé sur K de spectre Sp(u) = {λ1 , . . . , λr }. Alors


r
Y
χu (X) = (X − λk )m(λk ) .
k=1

Pr Qr m(λk )
De plus, tr(u) = k=1 m(λk )λk et detu = k=1 λk .

Démonstration. C’est une conséquence directe de la proposition 7.2.1. ♣

7.3 Endomorphismes diagonalisables


Dans cette section, nous étudions les endomorphismes qui se représentent dans des bases convenables
par des matrices diagonales.
Soit u ∈ L(E) et soit n la dimension de E.

Définition 7.3.1. L’endomorphisme u est diagonalisable sur K s’il existe une base de E dans laquelle
la matrice de u est une matrice diagonale de Mn (K). Une telle base s’appelle une base de diagonalisation
de u.

Remarque 7.3.1. Une base de diagonalisation B de u est formée de vecteurs propres de u. Dans une
telle base, la famille (v1 , . . . , vℓ ) obtenue en regroupant les vecteurs propres associés à une valeur propre
λ forme une base de Eλ .

Pour les matrices, on dit que A ∈ Mn (K) est diagonalisable si l’endomorphisme uA de Kn canonique-
ment associé est diagonalisable. En considérant la matrice de passage de la base canonique à une base de
diagonalisation de uA , on voit que A est diagonalisable s’il existe une matrice P ∈ Mn (K) inversible telle
que P −1 AP soit diagonale.

Proposition 7.3.1. Si u est diagonalisable, alors le polynôme caractéristique de u est scindé sur K et il
est de la forme :
Yr
χu (X) = (X − λk )dim(Eλk ) ,
k=1

où λ1 , . . . , λr sont les valeurs propres de u distinctes deux à deux.


7.3. ENDOMORPHISMES DIAGONALISABLES 81

Démonstration. Soit B une base de diagonalisation de u et soit Bλ la famille de vecteurs de B qui sont
des vecteurs propres associés à une valeur propre λ. C’est une base de Eλ . Dans la base B, la matrice de
u est diagonale d’éléments diagonaux les valeurs propres de u. De plus chaque valeur propre λ se répète
autant de fois la dimension de Eλ . D’où le polynôme caractéristique de u est
r
Y
χu (X) = (X − λk )dim(Eλk ) .
k=1


Remarque 7.3.2. On vient de montrer que lorsque u est diagonalisable, la multiplicité d’une valeur
propre coincide avec la dimension du sous espace propre associé.
Le résultat qui suit donne une première caractérisation des endomorphismes diagonalisables.
Théorème 7.3.1. Les assertions suivantes sont équivalentes :
1. u est diagonalisable.
2. E est la somme des sous espaces propres de u.
3. E est la somme directe des sous espaces propres de u.

Démonstration. 1. =⇒ 2. Soit B une base de diagonalisation de u. Alors B est la réunion de familles Bλ


formées respectivement des vecteurs de B qui sont des vecteurs propres associés à une valeur propre λ.
Comme Bλ est une base de Eλ on voit que E est la somme des sous-espaces propres de u.
2. =⇒ 3. Nous avons déjà vu que la somme de sous espaces propres est directe.
3. =⇒ 1. Il suffit de considérer la réunion des bases des sous espaces propres, c’est une base de diagona-
lisation de u. ♣
Corollaire 7.3.1. Soit Sp(u) = {λ1 , . . . , λr }. L’endomorphisme u est diagonalisable si et seulement si
Pr
k=1 dimEλk = n.

Démonstration. L’implication directe est claire. Montrons la réciproque. Puisque la somme Eλ1 +· · ·+Eλr
est directe, il vient :
Xr
dim(Eλ1 + · · · + Eλr ) = dimEλk = n.
k=1

Ceci montre que E = Eλ1 + · · · + Eλr et par suite u est diagonalisable d’après le théorème précédent. ♣
Corollaire 7.3.2. L’endomorphisme u est diagonalisable si et seulement si u est scindé et vérifie

dimEλ = m(λ), ∀λ ∈ Sp(u).


Pr
Démonstration.
Pr L’implication directe est déjà prouvée. La réciproque vient de l’égalité n = k=1 m(λk ) =
k=1 dimEλ k
. ♣
Corollaire 7.3.3. Si u admet n valeurs propres distinctes deux à deux dans K alors u est diagonalisable
sur K.
Exemple 7.3.1. Soit m un réel et considérons la matrice de M3 (R) :
 
2 − m −2 + 2m 0
B =  1 − m −1 + 2m 0 .
−1 1 2

On a
χB (X) = (X − 1)(X − 2)(X − m).
82 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

— Si m ̸= 1 et m ̸= 2, B admet trois valeurs propres distinctes deux à deux, donc elle est diagonali-
sable.
— Si m = 1, B est diagonalisable si, et seulement si, dim(E1 ) = 2. Calculons E1 . Un vecteur
X = xe1 + ye2 + ze3 appartient à E1 si, et seulement si, BX = X. Ceci donne lieu au système
linéaire : 
 x = x
y = y
−x + y + 2z = z

L’étude de ce système montre que E1 le plan d’équation −x + y + z = 0. D’où dim(E1 ) = 2 et B


est diagonalisable.
— Si m = 2, B est diagonalisable si, et seulement si, dim(E2 ) = 2. Cherchons E2 en résolvant
BX = 2X, c’est à dire le système

 2y = 2x
−x + 3y = 2y
−x + y + 2z = 2z

L’étude de ce sysème montre que c’est l’équation du plan de R3 d’équation x − y = 0. Il s’ensuit


que le sous espace propre E2 est de dimension 2. Puisque dim(E1 ) = 1 et dim(E2 ) = 2, la matrice
B est diagonalisable sur R.
Algorithme de diagonalisation
Diagonaliser l’endomorphisme u c’est déterminer une base de vecteurs propres de u ; autrement dit, une
base dans laquelle la matrice de u est diagonale. Supposons que A est la matrice de u dans une base B
de E. Pour diagonaliser u on suit l’algorithme suivant :
Algorithme

1) On calcule χu (X).
Si χu (X) est scindé sur K on passe à l’étape suivante ; sinon u
n’est pas diagonalisable.
2) Pour chaque valeur propre λ de u on détermine la dimension de Eλ .
a) Si pour une valeur propre λ, on a dim(Eλ ) < m(λ), l’endomorphisme u
n’est pas diagonalidable sur K.
b) Si pour toute valeur propre λ, on a dim(Eλ ) = m(λ), l’endomorphisme u
est diagonalisable ; on passe à l’étape suivante.
3) Pour chaque valeur propre λ, on détermine une base Bλ de Eλ .
Soit B ′ la réunion de ces bases.
4) Soit P la matrice de passage de B à B ′ .
La matrice D de u dans B ′ est diagonale et on a D = P −1 AP .
Parmi les applications de la diagonalisation des matrices, on cite le calcul des puissances d’une matrice
carrée. Soit A ∈ Mn (K) une matrice diagonalisable ; il existe alors une matrice diagonale D ∈ Mn (K) et
une matrice inversible P ∈ Mn (K) telles que A = P DP −1 .
En notant  
λ1 0
D=
 .. ,

.
0 λn
on a :
λk1
 
0
∀k ∈ N Dk = 
 .. ,

.
0 λkn
7.3. ENDOMORPHISMES DIAGONALISABLES 83

Il est donc facile de déterminer la valeur de Ak en utilisant la relation Ak = P Dk P −1 ∀k ∈ N.


Exemple 7.3.2. Considérons à nouveau la matrice A de l’exemple précédent pour le cas m = 2. Les
valeurs propres de A sont λ1 = 1 de multiplicité 1 et λ2 = 2 de multiplicité 2. Nous avons déjà montré
que A est diagonalisable sur R. Cherchons E1 en résolvant AX = X dans R3 , c’est à dire le système

 2y = x
−x + 3y = y
−x + y + 2z = z

L’étude de ce système montre que E1 est engendré par 2e1 +e2 +e3 . Pour E2 , nous avons déjà vu que c’est
le plan d’équation x = y. Ainsi une base de E2 est (e1 + e2 , e3 ). Finalement, la matrice A est semblable
à la matrice diagonale  
1 0 0
D =  0 2 0 .
0 0 2
et la matrice de passage est  
2 1 0
P = 1 1 0 .
1 0 1
La formule de changement de bases montre que

D = P −1 AP.

Puisque  
1 0 0
Dk =  0 2k 0 ,
0 0 2k
il vient
2 − 2k −2 + 2 2k
 
0
Ak = P Dk P −1 = 
 k

 1−2 −1 + 2 2k 0 .
1 − 2k −1 + 2k 2k

Donnons maintenant des critères de diagonalisabilité d’un endomorphisme en se basant sur des pro-
priétés de son polynôme minimal.
Proposition 7.3.2. Si u est diagonalisable de spectre Sp(u) = {λ1 , . . . , λr }, le polynôme minimal de u
est
Yr
Mu (X) = (X − λk ).
k=1
Qr
Démonstration. Posons P = k=1 (X − λk ). Puisque (X − λk ) divise Mu pour tout k ∈ {1, . . . , r}, il
vient P divise Mu .
Montrons que Mu divise P . Soit x ∈ E, il s’écrit x = x1 + · · · + xr , avec xi ∈ Eλi . On a alors :
Qr
P (u)(x) = (Qk=1 (u − λk IdE ))(x)
r
= (Qk=1 (u − λk IdE ))(x1 + · · · + xrQ)
r r
= ( k=1 (u − λk IdE ))(x1 ) + · · · + ( k=1 (u − λk IdE ))(xr )
Qr Qr−1
= ( k̸=1 (u − λk IdE )) ◦ (u − λ1 IdE )(x1 ) + · · · + ( k=1 (u − λk IdE )) ◦ (u − λr IdE )(xr )
= 0.

Ceci est vrai pour tout x dans E, donc P (u) = 0. Ceci prouve que Mu divise P .
Le résultat est donc démontré. ♣
84 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES

Théorème 7.3.2. Un endomorphisme est diagonalisable si, et seulement si, il annule un polynôme scindé
simple.
Qs
Démonstration. L’implication directe est évidente. Montrons la réciproque. Soit N (X) = k=1 (X − λk )
un polynôme scindé simple tel que N (u) = 0. Le lemme des noyaux montre que E = ⊕sk=1 Ker(u − λk IdE )
et le résultat est obtenu en considérant une base adaptée à cette somme directe. ♣
Corollaire 7.3.4. Un endomorphisme est diagonalisable si et seulement si son polynôme minimal est
scindé simple.
Proposition 7.3.3. L’endomorphisme induit sur un sous-espace vectoriel stable par un endomorphisme
diagonalisable est diagonalisable.

Démonstration. Il suffit de remarquer que l’endomorphisme induit annule le polynôme minimal de u. ♣


Exercice 7.3.1. On munit R3 de sa base canonique B = (e1 , e2 , e3 ) et soit f l’endomorphisme de R3
canoniquement associé à la matrice  
−1 4 0
A =  −2 5 0 .
−1 1 2
1. Calculer χf (X).
2. Montrer que f est diagonalisable sur R.
3. Déterminer les sous espaces propres de f .
4. Donner une base de diagonalisation B ′ de f .
5. Déterminer une matrice inversible P telle que D = P −1 AP soit diagonale.
6. Soit à résoudre l’équation (E) : X 2 = A dans M3 (R).
(a) Soit X ∈ M3 (R) une solution de E et soit g l’endomorphisme canoniquement associé. Montrer
que g 2 = f et f ◦ g = g ◦ f .
(b) Montrer que g laisse stables les sous-espaces propres de f .
(c) Montrer que g est diagonalisable et que B ′ est une base de diagonalisation de g.
(d) Soit Y la matrice de g dans B ′ . Montrer que Y 2 = D.
(e) Donner la relation entre X et D et donner la forme des solutions de l’équation (E).
Chapitre 8

Réduction des endomorphismes scindés

Dans tout ce chapitre K désigne un corps commutatif et E est un espace vectoriel sur K de dimension
finie.

8.1 Endomorphismes trigonalisables


Soit u ∈ L(E). Dans la suite on note par n la dimension de E.

Définition 8.1.1. L’endomorphisme u est dit trigonalisable s’il existe une base de E dans laquelle la
matrice de u est une matrice triangulaire de Mn (K). Une telle base s’appelle une base de trigonalisation
de u.
Remarque 8.1.1. Si la matrice de u dans une base (e1 , . . . , en ) est triangulaire supérieure, la matrice
de u dans la base (en , . . . , e1 ) est triangulaire inférieure.
Pour les matrices, on dit que A ∈ Mn (K) est trigonalisable si l’endomorphisme uA de Kn canonique-
ment associé est trigonalisable. En considérant la matrice de passage de la base canonique à une base de
trigonalisation de uA , on voit que A est trigonalisable s’il existe une matrice P ∈ Mn (K) inversible telle
que P −1 AP soit triangulaire.
Le résultat suivant présente une condition suffisante pour que l’endomorphisme u soit trigonalisable.
Proposition 8.1.1. Si l’endomorphisme u est scindé de valeurs propres λ1 , . . . , λn , (comptées avec leurs
multiplicités), alors il existe une base de E dans laquelle la matrice de u est triangulaire supérieure
d’éléments diagonaux λ1 , . . . , λn .

Démonstration. Nous allons procéder par récurrence sur la dimension n de E. L’assertion est vraie pour
n = 1. Supposons qu’elle soit acquise pour toute dimension strictement inférieure à n (avec n > 1).
On considère un hypeplan F qui contient l’image de l’endomorphisme non inversible u − λn IdE . Il est
stable par u − λn IdE et, donc, par u. Il s’ensuit que dans une base (e1 , . . . , en−1 , en ) de E, adaptée à F ,
la matrice de u est de la forme  
A B
0 λn
où A est la matrice de l’endomorphisme uF induit par u sur F . Puisque

χu (X) = (X − λ1 ) · · · (X − λn )

on obtient
χuF = χA (X) = (X − λ1 ) · · · (X − λn−1 ).

85
86 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

En utilisant l’hypothèse de récurrence, il existe (f1 , . . . , fn−1 ) une base de F dans laquelle la matrice de
uF est de la forme  
λ1 ⋆ · · · ⋆
 . . . . .. 
 0
 . . . 
.
 . . .
 .. .. ..

⋆ 
0 . . . 0 λn−1
Finalement, la matrice de u dans la base (f1 , . . . , fn−1 , en ) est de la forme
 
λ1 ⋆ · · · ⋆
.. 
 0 ... ...

 . 
.
 . .
 .. .. ... ⋆ 

0 . . . 0 λn


On peut maintenant énoncer le théorème suivant :
Théorème 8.1.1. L’endomorphisme u est trigonalisable si et seulement si il est scindé sur K.

Démonstration. Si u est trigonalisable, alors, par définition, sa matrice dans une base convenable est
triangulaire. Il est donc scindé puisque le polynôme caractéristique d’une matrice triangulaire l’est. La
réciproque vient de la proposition précédente. ♣
Exemple 8.1.1. Soit la matrice de M3 (R) :
 
1 4 −2
A= 0 6 −3  .
−1 4 0

On vérifie facilement que χA (X) = (X − 2)2 (X − 3). Donc A est trigonalisable puisque χA (X) est scindé.
Cherchons le sous-espace propre E3 en résolvant le système AX = 3X. Ce qui conduit au système

 −2x + 4y − 2z = 0
3y − 3z = 0 .
−x + 4y − 3z = 0

qui se réduit à l’équation x = y = z. Il vient E3 = Vect{v1 = e1 + e2 + e3 }.


Calculons ensuite le sous espace propre associé à 2 en résolvant AX = 2X dans R3 . On obtient le système

 x + 4y − 2z = 2x
6y − 3z = 2y
−x + 4y = 2z

qui est équivalent au système 


 −x + 4y − 2z = 0
4y − 3z = 0
−x + 4y − 2z = 0

Ainsi E2 = Vect{v2 = 4e1 + 3e2 + 4e3 }.


Pour trigonaliser la matrice A, il suffit de compléter la famille libre (v1 , v2 ) en une base de R3 . Posons
v3 = e3 . On a
Ae3 = −2e1 − 3e2 = −6v1 + v2 + 2v3 .
8.1. ENDOMORPHISMES TRIGONALISABLES 87

Il s’ensuit que la matrice A est semblable à la matrice triangulaire


 
3 0 −6
T =  0 2 1 .
0 0 2

La matrice de passage de la base canonique à la base (v1 , v2 , v3 ) est


 
1 4 0
P = 1 3 0 .
1 4 1

Nous avons le résultat général suivant :


Théorème 8.1.2. L’endomorphisme u est trigonalisable si et seulement si il possède un polynôme an-
nulateur non nul scindé.
Démonstration. Si u est trigonalisable alors son polynôme caractéristique est scindé et c’est un polynôme
annulateur de u. Pour la réciproque, supposons que u possède un polynôme annulateur scindé sur K.
Alors le polynôme minimal de u est scindé sur K. Puisque Mu et χu ont les mêmes facteurs irréductibles
sur K, il vient χu est scindé sur K. D’où u est trigonalisable par la proposition précédente. ♣

Trigonalisation de matrices d’ordre 3 L’algorithme suivant décrit une méthode simple pour la tri-
gonalisation des matrices carrées d’ordre 3. Soit A une matrice de M3 (K) de polynôme caractéristique
scindé sur K.

Algorithme :
1) A admet trois valeurs propres distinctes deux à deux : dans ce cas, A est diagonalisable sur K.
2) A admet deux valeurs propres distinctes λ1 et λ2 avec m(λ2 ) = 2.
a) Si dim(Eλ2 ) = 2, la matrice A est diagonalisable sur K.
b) Si dim(Eλ2 ) = 1,
On choisit v1 un vecteur propre associé à λ1 .
On choisit v2 un vecteur propre associé à λ2 .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
Si P est la matrice de passage de la base canonique de K3 à (v1 , v2 , v3 ),
alors P −1 AP est triangulaire.
3) A admet une seule valeur propre λ.
Si dim(Eλ ) = 3, la matrice A est diagonalisable sur K.
Si dim(Eλ ) = 2,
On détermine une base (v1 , v2 ) de Eλ .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
Si P est la matrice de passage de la base canonique de K3 à (v1 , v2 , v3 ),
alors P −1 AP est triangulaire.
Si dim(Eλ ) = 1,
On considère v1 un vecteur propre associé à λ.
On détermine un vecteur v2 tel que (A − λI3 )v2 soit non nul
et colinéaire à v1 .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
88 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Si P est la matrice de passage de la base canonique de K3 à (v1 , v2 , v3 ),


alors P −1 AP est triangulaire.

Pour les endomorphismes nilpotents, nous avons le résultat particulier suivant :


Proposition 8.1.2. Les trois assertions suivantes sont équivalentes :
1. u est nilpotent.
2. χu (X) = X n .
3. Il existe une base de E dans laquelle la matrice de u est triangulaire supérieure stricte.
Démonstration. 1. =⇒ 2. Si r est l’indice de nilpotence de u alors son polynôme minimal est Mu (X) = X r .
Le spectre de u est donc réduit à {0}. D’où χu (X) = X n .
2. =⇒ 3. Si χu (X) = X n , l’endomorphisme u est scindé et il existe une base de E dans la quelle la matrice
de u est triangulaire supérieure d’éléments diagonaux les valeurs propres de u. Comme Sp(u) = {0}, cette
matrice est triangulaire supérieure stricte.
3. =⇒ 1. Soit A la matrice triangulaire supérieure stricte représentant u dans une base de E. On a An = 0
et par suite un = 0. ♣
Exemple 8.1.2. Soit (e1 , e2 , e3 ) la base canonique de R3 et soit N la matrice de M3 (R) :
 
2 1 1
N =  −2 −1 −1  .
−2 −1 −1

On a χN (X) = X 3 , donc N est nilpotente. Déterminons le sous-espace propre associé à la valeur propre
0. En résolvant le système N X = 0, on obtient

E0 = Vect{v1 = e1 − 2e2 , v2 = e2 − e3 }.

En suite, on complète la famille (v1 , v2 ) par v3 = e3 en une base (v1 , v2 , v3 ) de R3 . C’est une base de
trigonalisation de N . Puisque N v3 = v1 + v2 , il vient N est semblable à la matrice triangulaire stricte
 
0 0 1
T = P −1 N P =  0 0 1  ,
0 0 0

où P est la matrice de passage de (e1 , e2 , e3 ) à (v1 , v2 , v3 ).


Proposition 8.1.3. Si l’endomorphisme u est scindé de valeurs propres λ1 , . . . , λn , alors, pour tout
polynôme P de K[X], l’endomorphisme P (u) est scindé de valeurs propres P (λ1 ), . . . , P (λn ).
Démonstration. Puisque u est scindé, il existe une base de E dans laquelle la matrice T de u est trian-
gulaire d’éléments diagonaux les valeurs propres de u : λ1 , . . . , λn . Dans la même base, la matrice de uk ,
pour tout k ∈ N, est T k qui est triangulaire d’éléments diagonaux λk1 , . . . , λkn . Il s’ensuit que le résultat
est vrai pour tout polynôme P . ♣

8.2 Décomposition de Dunford des endomorphismes scindés


Dans cette section, on montre que tout endomorphisme scindé est la somme unique d’un endomor-
phisme diagonalisable et d’un endomorphisme nilpotent qui commutent. On verra l’utilité de cette dé-
composition pour la résolution des systèmes d’équations différentielles linéaires à coefficients constants.
Soit u ∈ L(E). Dans la suite, l’entier n dénote la dimension de E.
8.2. DÉCOMPOSITION DE DUNFORD DES ENDOMORPHISMES SCINDÉS 89

8.2.1 Sous-espaces caractéristiques et décomposition spectrale


Supposons u scindé de polynôme caractéristique
r
Y
χu (X) = (X − λk )m(λk ) ,
k=1

avec λi ̸= λj pour i ̸= j.

Définition 8.2.1. On appelle sous espace caractéristique (ou spectrale) de u associé à la valeur propre
λk , et l’on note Fλk , le sous espace Ker(u − λk IdE )m(λk ) .
Le lemme des noyaux montre que E est la somme directe des sous espaces caractéristiques de u :

E = Fλ1 ⊕ · · · ⊕ Fλr .

Cette décomposition s’appelle la décomposition spectrale de u.


Proposition 8.2.1. Pour k ∈ {1, . . . , r}, soit Fk le sous espace caractéristique de u associé à la valeur
propre λk . Alors :
1. Fk est stable par u.
2. L’endomorphisme uk induit par u sur Fk est de la forme λk IdFk +nk , où nk est un endomorphisme
nilpotent de Fk .
3. dim(Fk ) = m(λk ).

Démonstration. Le sous espace Fk est le noyau d’un polynôme en u donc il est stable par u. Soient uk
l’endomorphisme induit par u sur Fk et nk = uk − λk IdFk . Puisque (u − λk IdE )m(λk ) est nul sur Fλk ,
l’endomorphisme nk est nilpotent. D’autre part, le polynôme caractéristique de uk est (X − λk )f (λk ) où
f (λk ) est la dimension de Fk . On obtient ainsi
r
Y
χu (X) = (X − λk )f (λk )
k=1

et par suite f (λk ) = m(λk ) pour k = 1, . . . , r. ♣


En utilisant les mêmes notations précédentes, on a le corollaire suivant :
Corollaire 8.2.1. Il existe une base B de E, appelée base spectrale de u et adaptée à la décomposition
spectrale de u, dans laquelle la matrice de u est diagonale par blocs. De plus, chaque bloc est une matrice
triangulaire supérieure d’ordre m(λk ) et d’éléments diagonaux tous égaux à λk .

Démonstration. Pour k ∈ {1, . . . , r}, soit Bk une base de Fk dans laquelle la matrice Nk de nk est
triangulaire supérieure stricte d’ordre m(λk ). Dans la base B, réunion des bases Bk , la matrice de u est
diagonale par blocs et le kme bloc est égal à λk Im(λk ) + Nk . ♣
On donne un résultat reliant le polynôme minimal de u et ses sous espaces caractéristiques.
Qr
Proposition 8.2.2. Si Mu (X) = k=1 (X − λk )r(λk ) est le polynôme minimal de u, alors r(λk ) est
l’indice de nilpotence de nk et Fk est le noyau de (u − λk IdE )r(λk ) .

Démonstration. Le polynôme minimal de uk est (X − λk )r (λk ) où r′ (λk ) est l’indice de nilpotence de nk .
Il s’ensuit que le polynôme minimal de u est
r
Y ′
(X − λk )r (λk ) .
k=1
90 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Ainsi r′ (λk ) = r(λk ). En utilisant le lemme des noyaux, on obtient la décomposition

E = Ker(u − λ1 )r(λ1 ) ⊕ · · · ⊕ Ker(u − λr )r(λr ) ,

et puisque Ker(u − λk )r(λk ) ⊂ Fk pour tout k ∈ {1, . . . , r}, il vient Fk = Ker(u − λk )r(λk ) . ♣
Exemple 8.2.1. Considérons la matrice J de M4 (R) :
 
0 1 1 1
 1 0 1 1 
J =  .
1 1 0 1 
1 1 1 0

On a MJ (X) = (X + 1)(X − 3) et χJ (X) = (X + 1)3 (X − 3). Donc, en notant uJ l’endomorphisme


canoniquement associé à J, les sous espaces caractéristiques de J sont respectivement F−1 = Ker(uJ +I4 )
et F3 = Ker(uJ − 3I4 ).

8.2.2 Décomposition de Dunford


Le théorème suivant représente le résultat essentiel de cette section.
Théorème 8.2.1. (Décomposition de Dunford)
Supposons u scindé sur K. Alors il existe un unique couple (d, r) formé d’un endomorphisme diagonalisable
d et d’un endomorphisme nilpotent r tel que u = d + r et d ◦ r = r ◦ d. De plus ces endomorphismes sont
des polynômes en u.
Qr
Démonstration. Supposons que χu (X) = k=1 (X − λk )m(λk ) avec λi ̸= λj pour i ̸= j.
Soit (pλ1 , . . . , pλr ) la famille des projecteurs sur les sous espaces caractéristiques de u. L’endomorphisme
d = λ1 pλ1 + · · · + λr pλr est diagonalisable et puisque les pλk sont des polynômes en u d’après le co-
rollaire 6.3.2, c’est un polynôme en u. D’autre part, l’endomorphisme r = u − d induit sur les Fk des
endomorphismes nilpotents, donc il est nilpotent et c’est aussi un polynôme en u. Il reste à montrer
l’unicité. Pour cela soit (d′ , r′ ) un autre couple vérifiant les mêmes conditions que (d, r). Puisque d′ com-
mute avec u il commute avec tout polyôme en u et donc avec d. Par suite d et d′ admettent une base de
diagonalisation commune. Alors d − d′ est diagonalisable. De même r et r′ commutent entre eux, ce qui
montre que r′ − r est nilpotent. Il s’nesuit que d − d′ = r′ − r est un endomorphisme diagonalisable et
nilpotent. D’où d − d′ est nul et par conséquent d = d′ et r = r′ . ♣
Remarque 8.2.1. L’analogue du théorème précédent pour les matrices A ∈ Mn (K) est le suivant :
Si le polynôme caractéristique de A est scindé sur K, alors il existe un unique couple de matrices (D, N ) ∈
Mn (K), avec D diagonalisable sur K et N nilpotente, tel que A = D + N et DN = N D. De plus les
matrices D et N sont des polynômes en A.
 
1 1
Remarque 8.2.2. Soit la matrice A = de M2 (R). On a
0 2
   
1 0 0 1
A=A= +
0 2 0 0
   
1 0 0 1
avec diagonale et . Cependant
0 2 0 0
     
1 0 0 1 0 1 1 0
̸= .
0 2 0 0 0 0 0 2

Ce qui montre que cette décomposition n’est pas la décomposition de Dunford de A.


8.2. DÉCOMPOSITION DE DUNFORD DES ENDOMORPHISMES SCINDÉS 91

Méthode pratique pour la décomposition de Dunford Supposons u scindé de polynôme carac-


téristique
r
Y
χu (X) = (X − λk )m(λk ) ,
k=1
avec λi ̸= λj pour i ̸= j.
La projection de E sur le sous espace caractéristique Fλi parallèllement à ⊕j̸=i Fλj appelée projecteur
spectral de u sur Fλi est un polynôme en u. En effet, notons Qi le polynôme j̸=i (X − λj )m(λj ) , pour
Q
i ∈ {1, . . . , r} ; alors par l’identité de Bézout, il existe A1 , . . . , Ar tels que
1 = A1 Q1 + · · · + Ar Qr .
Il s’ensuit que pour tout x de E on a :
x = (A1 Q1 )(u)(x) + · · · + (Ar Qr )(u)(x),
avec (Ai Qi )(u)(x) ∈ Fλi pour i ∈ {1, . . . , r}. Comme E est la somme directe des sous espaces caractéris-
tiques, le projecteur spectral sur Fλi est donné par
pi = (Ai Qi )(u).
On calcule les polynômes Ai en effectuant la décomposition en éléments simples de la fraction rationnelle
1
χu (X) :
r
1 X Ai
= .
χu (X) i=1
(X − λi )m(λi )
Ainsi la décomposition de Dunford de u est donnée par
r
X
d= λk (Ak Qk )(u), n = u − d.
k=1

Exemple 8.2.2. Soit A la matrice de M3 (R) :


 
5 3 1
A =  −3 −1 −1  .
−5 −4 0
On a χA (X) = (X − 1)2 (X − 2) qui est un polynôme scindé sur R. Donnons la décomposition de Dunford
de A. La décomposition en éléments simples de la fraction (X−1)12 (X−2) est comme suit :
1 −X 1
2
= 2
+ .
(X − 1) (X − 2) (X − 1) X −2
On obtient donc l’identité de Bézout
1 = −X(X − 2) + (X − 1)2 .
Ainsi la décomposition de Dunford de A est :
A = D + N,
où D est la matrice diagonalisable
 
3 2 0
D = −A(A − 2I3 ) + 2 (A − I3 )2 =  −1 0 0 
−3 −3 1
et N est la matrice nilpotente  
2 1 1
N = A − D =  −2 −1 −1  .
−2 −1 −1
92 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

8.3 Réduction de Jordan des endomorphismes scindés


La réduction de Jordan d’un endomorphisme scindé est la détermination d’une base dans laquelle la
matrice de cet endomorphisme est diagonale par blocs et dont chaque bloc est un bloc de Jordan. Dans
cette section, nous allons voir comment calculer de telles bases appelées bases de Jordan.
Soit u ∈ L(E) et soit n la dimension de E.
Définition 8.3.1. On appelle bloc de Jordan de valeur propre λ et d’ordre p > 0 la matrice carrée
 
λ 1 ··· 0
. 
 0 λ . . . .. 

Jp (λ) =  .
 
. . . . .

 . . . 1 
0 ··· 0 λ

On appelle matrice réduite de Jordan toute matrice diagonale par blocs de blocs de Jordan. Une telle
matrice est de la forme  
Jh1 (λ1 ) 0 ··· 0
 .. .. 

 0 Jh2 (λ1 ) . . 
,
 .. . . . .

 . . . 0 
0 ··· 0 Jhq (λq )
avec h1 , . . . , hq des entiers strictement positifs et λ1 , . . . , λq des scalaires non nécessairement deux à deux
distincts. On note une telle matrice par diag(Jh1 (λ1 ), . . . , Jhq (λq )).
Exemple 8.3.1. La matrice suivante est un bloc de Jordan de valeur propre 2 :
 
2 1 0
J(λ) =  0 2 1 
0 0 2

La matrice suivante est une matrice réduite de Jordan :


 
2 1 0 0 0 0
 0 2 1 0 0 0 
 
 0 0 2 0 0 0 
Jp (λ) = 
 0 0 0

 1 1 0 

 0 0 0 0 1 0 
0 0 0 0 0 3

Elle est formée de trois blocs de Jordan.

8.3.1 Réduction de Jordan des endomorphismes nilpotents


On commence par la réduction de Jordan des endomorphismes nilpotents et ensuite on la généralise
aux endomorphismes scindés. Supposons que u est nilpotent d’indice de nilpotence r et notons

ℓk = dimKer(uk ) − dimKer(uk−1 ) pour k ∈ {1, . . . , r}.

On a la proposition suivante :
Proposition 8.3.1. 1. La suite {0} = Ker(u0 ) ⊂ Ker(u) ⊂ · · · ⊂ Ker(ur−1 ) ⊂ Ker(ur ) = E est
strictement croissante.
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 93

2. Pour k ∈ {2, . . . , r}, si (ek1 , . . . , ekℓk ) est une base d’un supplémentaire Hk de Ker(uk−1 ) dans
Ker(uk ), alors il existe une base (ek−1 1 , . . . , ek−1
ℓk−1 ) d’un supplémentaire Hk−1 de Ker(u
k−2
) dans
k−1
Ker(u ) de la forme
(u(ek1 ), . . . , u(ekℓk ), f1 , . . . , fq ).

3. Les nombres ℓi vérifient la relation ℓr ≤ ℓr−1 ≤ · · · ≤ ℓ1 .

Démonstration. 1. Il est facile de voir que si Ker(uj ) = Ker(uj+1 ) pour un certain j alors Ker(uj ) =
j+i
Ker(u ) pour tout i ≥ 0. Ceci permet de montrer le premier point.
2. La somme Ker(uk−2 ) + Ku(ek1 ) + · · · + Ku(ekℓk ) de sous espaces de Ker(uk−1 ) est directe. En effet,
soit (h, α1 , . . . , αℓk ) ∈ Ker(uk−2 ) × Kℓk vérifiant h + α1 u(ek1 ) + · · · + αℓk u(ekℓk ) = 0. En introduisant
uk−2 , on obtient uk−1 (α1 ek1 + · · · + αℓk ekℓk ) = 0. Il s’ensuit que α1 ek1 + · · · + αℓk ekℓk appartient à
Ker(uk−1 ) et à l’un de ses supplémentaires dans Keruk . Il vient alors αi = 0 pour i ∈ {1, . . . , ℓk }
et par suite h = 0. Enfin, une base d’un supplémentaire de Ker(uk−2 ) + Ku(ek1 ) + · · · Ku(ekℓk ) dans
Ker(uk−1 ) fournit la famille (f1 , . . . , fq ) convenable.
3. Ce point découle simplement du dernier point. ♣

On construit ainsi par récurrence descendante une suite de familles de vecteurs (ek1 , . . . , ekℓk ) véri-
fiant pour tout k ∈ {1, . . . , r} :
(a) (ek1 , . . . , ekℓk ) est une base d’un supplémentaire Hk de Ker(uk−1 ) dans Ker(uk ).
(b) u(ekj ) = ek−1
j pour tout j ∈ {1, . . . , ℓk } et u(e1j ) = 0 pour tout j ∈ {1, . . . , ℓ1 }.
Puisque E = ⊕rk=1 Hk , la réunion des familees (ek1 , . . . , ekℓk ) forme une base de E. On dispose
alors d’un tableau T , dit tableau de Young, dont la forme déterminée par la liste (ℓ1 , . . . , ℓr ) des
longueurs de ses lignes ne dépend que de u.
Dans la suite, on note (h1 , . . . , hℓ1 ) la suite décroissante des hauteurs des colonnes du tableau T
et on rappelle que ℓ1 = dim(Ker(u)).
Tableau de Young

er1 ··· erℓr


r−1
e1 er−1
ℓr ··· er−1
ℓr−1
.. .. ..
. . .
e21 ··· e2ℓr ··· e2ℓr−1 ··· e2ℓ2
e11 ... e1ℓr ··· e1ℓr−1 ··· e1ℓ2 ··· e1ℓ1

Lemme 8.3.1. Pour k ∈ {1, . . . , r}, la famille constituée des éléments des k premières lignes (à
partir du bas) du tableau de Young, est une base de Ker(uk ).

Démonstration. Il suffit d’utiliser la relation Ker(uk ) = Ker(uk−1 ) ⊕ Hk . ♣


Soit C une base de E dans la quelle la matrice de u est de la forme

diag(Js1 (0), . . . , Jsq (0)),

avec s1 ≥ s2 ≥ · · · ≥ sq .
Soit T ′ le tableau obtenu en disposant les éléments de C de bas en haut et de gauche à droite par
colonnes de hauteurs si .
On a le lemme suivant :
94 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Lemme 8.3.2. Le noyau de uk est engendré par les vecteurs des k premières lignes de T ′ , (à
partir du bas).

Démonstration. Pour tout i ∈ {1, . . . , q}, Jsi (0) est un bloc de Jordan, donc si ≤ r. Soit Gk , k ∈
{1, . . . , r} le sous espace engendré par les éléments de la k ème ligne de T ′ . On a G1 ⊕ · · · ⊕ Gk ⊂
Ker(uk ). Ceci montre que dim(Gk ) ≤ ℓk . Comme dim(G1 ) + · · · + dim(Gr ) = ℓ1 + · · · + ℓr , il vient
dim(Gk ) = ℓk . D’où G1 ⊕ · · · ⊕ Gk = Ker(uk ) pour tout k ∈ {1, . . . , r}. Ceci complète la preuve.♣
On peut maintenant énoncer le théorème suivant :
Théorème 8.3.1. Il existe une base de E dans laquelle la matrice de u est une matrice réduite
de Jordan
diag(Jh1 (0), . . . , Jhℓ1 (0)),
avec (h1 , . . . , hℓ1 ) une suite décroissante d’entiers non nuls.
Deux matrices réduites de Jordan représentant u sont égales à l’ordre près de blocs de Jordan.

Démonstration. On note B la base formée des éléments du tableau T , indexés en le parcourant de


bas en haut et de gauche à droite. La matrice de u dans la base B est de la forme

diag(Jh1 (0), . . . , Jhℓ1 (0)),

et la suite (h1 , . . . , hℓ1 ) est bien une suite décroissante d’entiers non nuls.
Supposons que la matrice de u dans une autre base C soit de la forme

diag(Js1 (0), . . . , Jsq (0)).

Quitte à permutter les éléments de C, on peut supposer que (s1 , . . . , sq ) est une suite décroissante
d’entiers non nuls. En disposant les éléments de C de bas en haut et de gauche à droite par
colonnes de hauteurs si , on construit un tableau T ′ . D’après le lemme précédent, le noyau de uk
est engendré par les vecteurs des k premières lignes de T ′ (à partir du bas), alors les lignes de
T et T ′ ont les mêmes longueurs et ces deux tableaux ont la même forme. Il vient q = ℓ1 et
(h1 , . . . , hℓ1 ) = (s1 , . . . , sℓ1 ). ♣

Exemples de tableaux de Young et réduites de Jordan pour des matrices nilpotentes


On rappelle que si A est une matrice de Mn (K), alors uA désigne l’endomorphisme de Kn cano-
niquement associé à A. Dans les exemples suivants, (e1 , . . . , en ) désigne la base canonique de Kn .
Une base dans la quelle la matrice de uA est une matrice réduite de Jordan s’appelle une base de
Jordan.
Exemple 8.3.2. Soit la matrice nilpotente
 
1 0 1
 
 −1
N = 0 −1 
.
−1 0 −1

On a N ̸= 0 et N 2 = 0 donc l’indice de nilpotence de N est r = 2. Déterminons le tableau de


Young de N . On calcule tout d’abord la suite des noyaux :

Ker(uN ) = Vect{−e1 + e3 , e2 } ⊂ Ker(u2N ) = R3 .

Comme e1 ∈ R3 \Ker(uN ), alors R3 = Ker(uN )⊕Re1 . On complète uN (e1 ) en une base (uN (e1 ), e2 )
de Ker(uN ). Par conséquent, un tableau de Young de N est
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 95

e1
uN (e1 ) e2
Il s’ensuit que la famille (uN (e1 ), e1 , e2 ) est une base de Jordan de N . Une réduite de Jordan
semblable à N est  
0 1 0
 
J =  0 0 0
.

0 0 0
Exemple 8.3.3. Soit la matrice nilpotente
 
0 −1 1
 
 0
N = 1 −1 
.
1 2 −1
Son indice de nilpotence est r = 3. On calcule facilement la suite des noyaux :
Ker(uN ) = Vect{−e1 + e2 + e3 } ⊂ Ker(u2N ) = Vect{−e1 + e2 , e3 } ⊂ Ker(u3N ) = R3 .
Comme R3 = Ker(N 2 ) ⊕ Re1 , Ker(N 2 ) = Ker(N ) ⊕ Vect{uN (e1 )} et Ker(N ) = Vect{u2N (e1 )},
alors un tableau de Young de N est
e1
uN (e1 )
u2N (e1 )

Il découle que la famille (u2N (e1 ), uN (e1 ), e1 ) forme une base de Jordan de N et qu’une réduite de
Jordan semblable à N est  
0 1 0
 
J =  0 0 1 .

0 0 0
 
−1 2 3 4
 
 −1 3 4 6 
Exemple 8.3.4. On considère la matrice nilpotente N =   . Son indice
 
 −1 1 2 2 
 
1 −2 −3 −4
de nilpotence est r = 3. De plus, la suite des noyaux est :
Ker(uN ) = Vect{−2e2 + e4 , e1 − e2 + e3 } ⊂ Ker(u2N ) = Vect{−2e2 + e4 , −e2 + e3 , e1 } ⊂ Ker(u3N ) = R4 .
Puisque R4 = Ker(u2N ) ⊕ Vect{e2 }, Ker(u2N ) = Ker(uN ) ⊕ Vect{uN (e2 )} et Ker(uN ) = Vect{u2N (e2 ), e1 −
e2 + e3 }, un tableau de Young de N est :

e2
uN (e2 )
u2N (e2 ) e1 − e2 + e3

Ainsi une base de Jordan de N est (u2N (e2 ), uN (e2 ), e2 , e1 − e2 + e3 ) et une réduite de Jordan semblable à
N est  
0 1 0 0
 
 0 0 1 0 
J = .
 
 0 0 0 0 
 
0 0 0 0
96 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Exemple 8.3.5. Soit la matrice nilpotente


 
−2 4 5 7
 
 −1 2 3 4 
N = .
 
 0 0 1 1 
 
0 0 −1 −1

Son indice de nilpotence est r = 2. On détermine facilement la suite des noyaux :

Ker(uN ) = Vect{e1 − e3 + e4 , 2e1 + e2 } ⊂ Ker(u2N ) = R4 .

Comme R4 = Ker(uN ) ⊕ Vect{e3 , e4 }, un tableau de Young de N est :

e3 e4
uN (e3 ) uN (e4 )

On conclut qu’une base de Jordan de N est (uN (e3 ), e3 , uN (e4 ), e4 ) et qu’une réduite de Jordan
semblable à N est  
0 1 0 0
 
 0 0 0 0 
J = .
 
 0 0 0 1 
 
0 0 0 0
Exemple 8.3.6. Soit la matrice
 
−2 4 5 7
 
 −1 3 4 6 
N = .
 
 0
 −1 0 −1 

0 0 −1 −1

L’indice de nilpotence de N est r = 4 et la suite des noyaux est :


Ker(uN ) = Vect{e1 + e2 + e3 − e4 }etKer(u2N ) = Vect{e1 + 2e2 − e4 , e2 − e3 }
⊂ Ker(u3N ) = Vect{2e1 + e3 , 2e1 + e2 , 3e1 + e4 } ⊂ Ker(N 4 ) = R4 .
Puisque Vect{e3 } est un supplémentaire de Ker(N 3 ) dans R4 , un tableau de Young de N est donné
par

e3
uN (e3 )
u2N (e4 )
u3N (e4 )

Il s’ensuit que (u3N (e3 ), u2N (e3 ), uN (e3 ), e3 ) est une base de Jordan de N et qu’une réduite de Jordan
semblable à N est  
0 1 0 0
 
 0 0 1 0 
J = .
 
 0 0 0 1 
 
0 0 0 0
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 97

8.3.2 Réduction de Jordan des endomorphismes scindés


On suppose maintenant que u est scindé de polynôme caractéristique
r
Y
χu (X) = (X − λk )m(λk ) ,
k=1

où les λk sont deux à deux distincts. Le théorème suivant donne le résultat essentiel de cette
section.

Théorème 8.3.2. Il existe une base de E dans laquelle la matrice de u est une matrice réduite
de Jordan. Deux matrices réduites de Jordan représentant u sont égales à l’ordre près de blocs de
Jordan.

Démonstration. Pour tout k ∈ {1, . . . , r}, soit Fk le sous espace caractéristique de u associé à la
valeur propre λk et soit uk l’endomorphisme induit par u sur Fk . On considère ensuite l’endo-
morphisme nilpotent nk = uk − IdFk . D’après le théorème 8.3.1, il existe une base Bk de Fk dans
laquelle la matrice de nk est une matrice réduite de Jordan :

diag(Jh1 (λk ) (0), . . . , Jhpk (λk ) (0)).

Donc la matrice de u dans la base B réunion des bases Bk est la matrice diagonale par blocs
diag(A1 , . . . , Ar ) où Ak est de la forme :

diag(Jh1 (λk ) (λk ), . . . , Jhpk (λk ) (λk )).

Si une matrice réduite de Jordan représente u dans une autre base, la matrice diagonale par blocs
formée des matrices de Jordan de valeur propre λk représente l’endomorphisme induit uk . On se
ramène au théorème précédent sur les endomorphismes nilpotents en considérant les endomor-
phismes nilpotents nk . ♣
Une base de E dans laquelle la matrice de u est une matrice réduite de Jordan sera dite une base
de Jordan de u. Jordaniser un endomorphisme scindé c’est déterminer une base de Jordan de cet
endomorphisme. Pour les matrices, jordaniser une matrice revient à jordaniser l’endomorphisme
canoniquement associé.

Exemples de jordanisation de matrices

Exemple 8.3.7. Soit la matrice


 
0 0 1
 
 2
A= 2 −1 
.
−1 0 −2

On a χA (X) = (X + 1)2 (X − 2) donc A admet deux valeurs propres λ1 = −1 (double) et λ2 = 2


(simple). On vérifie que l’endomorphisme induit par uA + Id sur le sous espace caractéristique F−1
est nilpotent d’indice r = 2. Ensuite, on détermine la suite des noyaux

Ker(uA + Id) = Vect{−e1 + e2 + e3 } ⊂ F−1 = Vect{−e1 + e2 , e3 }.

Comme e3 ∈ F−1 \Ker(uA +Id), alors la famille ((uA +Id)(e3 ), e3 ) est une base de F−1 . D’autrepart,
le sous espace caractéristique F2 coincide avec le sous espace propre E2 et admet comme base le
98 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

vecteur e2 . On conclut que la famille ((uA + Id)(e3 ), e3 , e2 ) constitue une base de Jordan de A et
qu’une réduite de Jordan semblable à A est
 
−1 1 0
 
J = 0 −1 0  .

0 0 2

Exemple 8.3.8. Soit la matrice


 
−1 −1 1
 
 0
A= 0 −1 
.
1 2 −2

Son polynôme caractéristique est χA (X) = (X + 1)3 . Donc A admet une seule valeur propre et par
suite un seul sous espace caractéristique F−1 . D’autrepart, l’endomorphisme (uA +Id) est nilpotent
d’indice r = 3 et après les calculs, on obtient la suite des noyaux :

Ker(uA + Id)) = Vect{−e1 + e2 + e3 } ⊂ Ker(uA + Id)2 = Vect{−e1 + e2 , e3 } ⊂ F−1 = R3 .

Comme
e1 ∈ F−1 \Ker(uA + Id)2 ,
alors la famille
((uA + Id)2 (e1 ), (uA + Id)(e1 ), e1 )
est une base de Jordan de A. De plus, une réduite de Jordan de A est
 
−1 1 0
 
J = 0 −1 1 .
0 0 −1

Exemple 8.3.9. Soit la matrice


 
3 0 1
 
 −1
A= 2 −1 
.
−1 0 1

On a χA (X) = (X − 2)3 , donc A admet une seule valeur propre λ = 2. On vérifie que l’endomor-
phisme uA − 2Id est nilpotent d’indice r = 2. Après les calculs, on obtient la suite :

Ker(uA − 2Id) = Vect{−e1 + e3 , e2 } ⊂ Ker(uA − 2Id)2 = F2 = R3 .

Puisque le vecteur e1 ∈ F2 \Ker(uA − 2Id) et la famille ((uA − 2Id)(e1 ), e2 ) forme une base de
Ker(uA − 2Id), une base de Jordan est ((uA − 2Id)(e1 ), e1 , e2 ). Une réduite de Jordan semblable à
A est  
2 1 0
 
J =  0 2 0 .

0 0 2
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 99

Exemple 8.3.10. Soit la matrice


 
1 −4 −3 −5
 
 −4 8 10 15 
A= .
 
 2
 −5 −5 −7 

1 −2 −3 −5
On a χA (X) = (X − 2)(X + 1)3 . On montre que l’endomorphisme induit sur F−1 est nilpotent
d’indice r = 3 et que la suite des noyaux est comme suit :
Ker(uA +Id) = Vect{e1 +e2 +e3 −e4 } ⊂ Ker(uA +Id)2 = Vect{e1 +2e2 −e4 , e2 −e3 } ⊂ F−1 = Ker(uA +Id)3 = Vect{2e1 +e
Comme 2e1 + e3 ∈ F−1 \Ker(uA + Id)2 , la famille
((uA + Id)2 (2e1 + e3 ), (uA + Id)(2e1 + e3 ), 2e1 + e3 )
forme une base de F−1 . D’autrepart, le sous espace caractéristique associé à la valeur propre 2 est
F2 = Vect{e1 − e2 + e3 }. Il s’ensuit donc qu’une base de Jordan de A est
((uA + Id)2 (2e1 + e3 ), (uA + Id)(2e1 + e3 ), 2e1 + e3 , e1 − e2 + e3 ).
Enfin une réduite de Jordan de A est
 
−1 1 0 0
 
 0 −1 1
0 
J = .
 
 0
 0 −1 0 

0 0 0 2
Exemple 8.3.11. Soit la matrice
 
5 0 2 0
 
 7 4 8
1 
A= .
 
 −4 0 −1 0 
 
−5 −1 −6 2
On a χA (X) = (X − 3)3 (X − 1). On vérifie que l’endomorphisme induit par uA − 3Id sur F3 est
nilpotent d’indice r = 2 et qu’on a
Ker(uA − 3Id) = Vect{e1 + e2 − e3 , e2 − e4 } ⊂ F3 = Ker(uA − 3Id)2 = Vect{−e1 + e3 , e2 , e4 }.
Puisque e2 ∈ F3 \Ker(uA −3Id) et que ((uA −3Id)(e2 ), e1 +e2 −e3 ) forme une base de Ker(uA −3Id),
il vient que
((uA − 3Id)(e2 ), e2 , e1 + e2 − e3 )
forme une base de F3 . D’autrepart, le sous espace F1 est engendré par e1 + 4e2 − 2e3 − 3e4 . On
conclut que
((uA − 3Id)(e2 ), e2 , e1 + e2 − e3 , e1 + 4e2 − 2e3 − 3e4 )
forme une base de Jordan de A. Enfin une réduite de Jordan est
 
3 1 0 0
 
 0 3 0 0 
J = .
 
 0 0 3 0 
 
0 0 0 1
100 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS

Exemple 8.3.12. Soit la matrice


 
1 −1 0 1
 
 −4 7 9 13 
A= .
 
 2
 −7 −7 −11 

1 1 0 1

Son polynôme caractéristique est χA (X) = (X + 1)2 (X − 2)2 . On vérifie que

Ker(uA + Id) = Vect{e1 + e2 + e3 − e4 } ⊂ Ker(uA + Id)2 = Vect{e1 + 2e2 − e4 , e3 − e4 }.

Puis on montre que


e1 + 2e2 − e4 ∈ F−1 \Ker(uA + Id)
et que
((uA + Id)(e1 + 2e2 − e4 ), e1 + 2e2 − e4 )
forme une base de F−1 . D’autrepart, le sous espace caractéristique associé à la valeur propre 2 est

F2 = Ker(uA − 2Id) = Vect{e1 − e2 + e3 , 2e1 − e2 + e4 }.

Il s’ensuit qu’une base de Jordan est

((uA + Id)(e1 + 2e2 − e4 ), e1 + 2e2 − e4 , e1 − e2 + e3 , 2e1 − e2 + e4 ).

D’où une réduite de Jordan de A est


 
−1 1 0 0
 
 0 −1 0 0 
J = .
 
 0 0 2 0 
 
0 0 0 2

Exemple 8.3.13. Soit la matrice


 
−2 2 3 4
 
 −1 1 3 4 
A= .
 
 −1 2 2 4 
 
1 −2 −3 −5

On a χA (X) = (X + 1)4 . On montre que l’endomorphisme induit par uA + Id sur F−1 est nilpotent
d’indice r = 2. Puis on calcue la suite des noyaux

Ker(uA + Id) = Vect{2e1 + e2 , 3e1 + e3 , 4e1 + e4 } ⊂ F−1 = R4 .

Comme e1 ∈ F−1 \Ker(uA +Id), il suffit de complèter la famille (uA +Id)(e1 ), e1 par 2e1 +e2 , 3e1 +e3
pour avoir une base de Jordan de A. On conclut qu’une réduite de Jordan est
 
−1 1 0 0
 
 0 −1 0 0 
J = .
 
 0
 0 −1 0 

0 0 0 −1
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 101

Exemple 8.3.14. Soit la matrice


 
−2 2 3 4
 
 −1 2 4 6 
 
 
 −1 1 1 2 
 
1 −2 −3 −5

On a χA (X) = (X + 1)4 et l’endomorphisme (uA + Id) est nilpotent d’indice r = 3. On a

Ker(uA +Id) = Vect{2e3 −e4 , e1 −e2 +e3 } ⊂ Ker(uA +Id)2 = Vect{2e3 −e4 , −e2 +e3 , e1 } ⊂ F−1 = R4 .

Comme le vecteur e3 ∈ F−1 \Ker(uA + Id)2 , alors on complète la famille

((uA + Id)2 (e3 ), (uA + Id)(e3 ), e3 )

par 2e3 − e4 pour avoir la base de Jordan. Enfin une réduite de Jordan de A est
 
−1 1 0 0
 
 0 −1 1 0 
.
 

 0
 0 −1 0 

0 0 0 −1

Exemple 8.3.15. Soit la matrice


 
0 4 5 7
 
 −1 5 4 6 
A= .
 
 0
 −1 2 −1 

0 0 −1 1

On a χA (X) = (X − 2)4 et on vérifie que l’endomorphisme (uA − 2Id) est nilpotent d’indice r = 4.
Comme
Ker(uA − 2Id)3 = Vect{2e1 + e2 , 2e1 + e3 , 3e1 + e4 }
et
e1 ∈ F2 \Ker(uA − 2Id)3 ,
alors la famille
((uA − 2Id)3 (e1 ), (uA − 2Id)2 (e1 ), (uA − 2Id)(e1 ), e1 )
est une base de Jordan de A. On conclut qu’une réduite de Jordan de A est
 
2 1 0 0
 
 0 2 1 0 
J = .
 
 0 0 2 1 
 
0 0 0 2
102 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS
Chapitre 9

Systèmes différentiels linéaires du


premier ordre

Dans ce chapitre, on suppose que K = R ou C.

9.1 Exponentielle d’une matrice


Définition 9.1.1. Soit A ∈ Mn (K). On appelle exponentielle de A, et l’on note exp(A) ou eA , la
limite de la série convergente dans Mn (K) :

X Ak
.
k!
k=0

Remarque 9.1.1. (a) L’application exponentielle de Mn (K) dans Mn (K) qui à une matrice A
P∞ k
fait correspondre eA , est bien définie. En effet, la série k=0 Ak! est normalement convergente
sur toute partie bornée de Mn (K) pour des normes bien appropriées.
(b) Lorsque n = 1 et K = R, on retrouve la définition de l’exponentielle d’un nombre réel.
(c) L’exponentielle de la matrice nulle est la matrice identité.
Nk
Pr−1
(d) L’exponentielle d’une matrice nilpotente N d’indice de nilpotence r est la matrice k=0 k! .

Proposition 9.1.1. Soit A, B ∈ Mn (K), alors :


(a) Si AB = BA, alors eA+B = eA eB = eB eA .
−1
(b) Pour toute matrice inversible P ∈ Mn (K), on a eP AP
= P −1 eA P .
(c) Si A est triangulaire d’éléments diagonaux λ1 , . . . , λn , alors eA est triangulaire d’éléments
diagonaux eλ1 , . . . , eλn .
(d) det(eA ) = etr(A) . Ainsi eA est inversible et (eA )−1 = e−A .

Démonstration. On admet les points 2. et 3.


Lorsque χA est scindé sur K, la matrice A est trigonalisable et le point 4. découle du point 3.
On montre le cas général en admettant que tout corps est contenu dans un corps commutatif
algébriquement clos.
Pour le premier point, on en donnera une preuve dans la suite. ♣

103
104 CHAPITRE 9. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE

Calcul de l’exponentielle d’une matrice Soit A une matrice de Mn (K) de polynaractéristique


scindé sur K.
(a) Lorsque A est diagonalisable sur K, il existe une matrice P ∈ Mn (K) inversible telle que
 
λ1 0 ··· 0
 .. .. 
 0 . . 0
D = P −1 AP = 

.
 . .. .. ..
 ..

. . . 
0 ··· 0 λn

Comme
eλ1
 
0 ··· 0
 .. .. 
D
 0 . . 0 
e =
 . ..
,
 .. .. .. 
. . . 
0 ··· 0 eλ n

on obtient l’exponentielle de A en utilisant la relation eA = P eD P −1 .


(b) Si A n’est pas diagonalisable alors en utilisant la décomposition de Dunford, A sécrit A = D+N ,
avec D diagonalisable, N nilpotente et DN = N D. Il s’ensuit que

r−1
!
X Nk
eA = eD eN = eD ,
k!
k=0

avec r est l’indice de nilpotence de N . Puisque D est diagonalisable, le calcul de eD se fait


comme précédemment. Ainsi on obtient l’exponentielle de A.

Exemple 9.1.1. Considérons la matrice réelle


 
5 3 1
A =  −3 −1 −1 
−5 −4 0

étudiée dans l’exemple ??. La décomposition de Dunford de A est A = D + N , avec


   
3 2 0 2 1 1
D =  −1 0 0  et N =  −2 −1 −1  .
−3 −3 1 −2 −1 −1

Comme N est nilpotente d’indice de nilpotence 2, l’exponentielle de A est eA = eD (I3 + N ). On


calcule eD en déterminant P inversible telle que
 
1 0 0
D=P 0 1 0  P −1 .
0 0 2

D’où  
e 0 0
eA = P  0 e 0  P −1 (I3 + N ).
0 0 e2
9.2. FONCTIONS VECTORIELLES 105

9.2 Fonctions vectorielles


Soit m ∈ N⋆ et soit f1 , . . . , fm des fonctions d’un intervalle non vide I de R dans K.
Définition 9.2.1. On appelle fonction vectorielle de I dans Km de fonctions coordonnées f1 , . . . , fm
la fonction F de I dans Km définie par :
∀x ∈ I : F (x) = (f1 (x), . . . , fm (x)).
Exemple 9.2.1. La fonction φ de R dans R2 définie par
∀t ∈ R : φ(t) = (sin(t), cos(t))
est une fonction vectorielle.
Pour une fonction vectorielle F de fonctions coordonnées f1 , . . . , fm , on a les propriétés suivantes :
(a) La fonction F est continue en x0 ∈ I si chaque fonction coordonnée est continue en x0 . Elle
est continue sur I si chaque fonction coordonnée l’est sur I.
(b) La fonction F est dérivable sur I si chaque fonction coordonnée l’est sur I. Dans ce cas, la
fonction dérivée de F est la fonction vectorielle de coordonnées les fonctions dérivées f1′ , . . . , fm

.
k k
Elle est de classe C sur I si chaque fonction coordonnée est de classe C sur I.
(c) La fonction F est intégrable sur I si chaque fonction coordonnée est intégrable sur I. Dans ce
cas, on a Z Z Z 
F (x)dx = f1 (x)dx, . . . , fm (x)dx .
I I I
Proposition 9.2.1. Soit n ∈ N⋆ et A ∈ Mn (K). Alors la fonction vectorielle ϕ : R → Mn (K)
définie par ϕ(t) = etA est dérivable sur R et on a :
∀t ∈ R : ϕ′ (t) = Aϕ(t).
En particulier, pour tout vecteur X ∈ Kn , la fonction vectorielle ψ : R → Kn définie par ϕ(t) =
etA X est dérivable sur R et on a :
∀t ∈ R : ψ ′ (t) = Aψ(t).
k k
Démonstration. Pour k ∈ N, soit fk la fonction de RPdans Mn (K) donnée par fk (t) = t k!A .
Pour une norme bien appropriée sur Mn (K), la série fk′ est normalement P convergente, donc
uniformément convergente sur tout compact [−a, a] de R. Comme la série fk est simplement
convergente en 0, elle est dérivable et de plus ( fk )′ =
P P ′
fk . Donc
+∞ k−1 k +∞ k−1 k−1
X t A X t A
(etA )′ = =A = AetA .
(k − 1)! (k − 1)!
k=1 k=1

Ainsi
∀t ∈ R : ϕ′ (t) = Aϕ(t).

9.3 Systs différentiels linéaires à coefficients constants


Définition 9.3.1. On appelle syst différentiel linéaire du premier ordre et à coefficients constants,
tout syst de la forme
 ′
 x1 (t)
 = a11 x1 (t) + ··· + a1n xn (t) + b1 (t)
(S) .. .. .. .. .. .. .. .. ..
 . . . . . . . . .
 ′
xn (t) = an1 x1 (t) + ··· + ann xn (t) + bn (t)
106 CHAPITRE 9. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE

où les aij sont des scalaires, les xi sont des fonctions de classe C 1 d’un intervalle non vide I de
R dans K et les bi sont des fonctions continus de I dans K.

En notant A la matrice (aij ), X le vecteur (x1 , . . . , xn ) et B le vecteur (b1 , . . . , bn ), on peut écrire


le syst (S) sous la forme matricielle

(S) X ′ = AX + B(t).

Le syst (S) est dit homog ou sans second membre lorsque b1 = b2 = · · · = bn = 0. Dans la suite le
syst (SH ), X ′ = AX sera dit le syst homog associé à (S).
Notons que les solutions du syst (S) sont des fonctions de classe C 1 de I dans Kn . Le théor
de Cauchy-Lipschitz assure l’existence et l’unicité des solutions vérifiant des conditions initiales
données.
Théorème 9.3.1. (Cauchy-Lipschitz)
Pour tout t0 ∈ I et tout X0 ∈ Kn , le syst différentiel linéaire (S) admet une unique solution ϕ de
classe C 1 telle que ϕ(t0 ) = X0 .

Pour résoudre le syst (S) on commence par résoudre le syst homog associé (SH ). Le théor suivant
donne la forme des solutions de (SH ).
Proposition 9.3.1. Soit A ∈ Mn (K). Alors
(a) L’ensemble des solutions de (SH ) est un K-espace vectoriel de dimension n.
(b) La solution ϕ de (SH ) vérifiant ϕ(0) = X0 pour un vecteur X0 ∈ Kn , est donnée par

ϕ(t) = etA X ∀t ∈ R.

Démonstration. (a) Soit E l’ensemble des solutions de (SH ). Il est évident que E est un K-espace
vectoriel. Considérons l’application ψ de E dans Kn définie par ψ(ϕ) = ϕ(0). C’est une appli-
cation linéaire et le théorme de Cauchy-Lipschitz assure que c’est une bijection. Ceci montre
que ψ est un isomorphisme ’espaces vectoriels. D’où dim(E) = dim(Kn ) = n.
(b) Puisque ϕ′ (t) = Aϕ(t) ∀t ∈ R, la fonction ϕ est une solution de (SH ). Le théorème de Cauchy-
Lipschitz montre que les solutions de (SH ) sont de cette forme. ♣
Le théor suivant permet d’obtenir une base de l’ensemble des solutions d’un système homogène.
Une telle base s’appelle un syst fondamental de solutions.
Théorème 9.3.2. Soient A ∈ Mn (K), (X1 , . . . , Xn ) une base de Kn et ϕ1 , . . . , ϕn sont les fonc-
tions vectorielles définies par :
∀t ∈ R, ϕi (t) = etA Xi .
Alors la famille de fonctions (ϕ1 , . . . , ϕn ) est une base de l’ensemble des solutions de (S ′ ).

Démonstration. Il est facile de montrer que la famille (ϕ1 , . . . , ϕn ) est libre. C’est donc une base
puisque l’espace des solutions est de dimension n. ♣
Exemple 9.3.1. Déterminer la solution ϕ du syst différentiel linéaire
 ′
x = −x + y
(SH )
y ′ = 3x + y
 
1
vérifiant ϕ(0) = X0 = .
1
9.3. SYSTS DIFFÉRENTIELS LINÉAIRES À COEFFICIENTS CONSTANTS 107

L’écriture matricielle de SH est X ′ = AX avec


   
x −1 1
X= et A = .
y 3 1
 
1
On sait que la solution ϕ de (SH ) vérifiant ϕ(0) = X0 = est donnée par
1

∀t ∈ R, ϕ(t) = etA X0 .

Puisque
3 −2t 1 −2t
+ 14 e2t 1 2t
 
etA = 4e 4e − 4e ,
3 2t 3 −2t 1 −2t
4e − 4e 4e + 34 e2t
il vient
1 2t −2t
 
ϕ(t) = 2 (e + e )
∀t ∈ R.
3 2t 1 −2t
2 e − 2 e
Remarque 9.3.1. Si la fonction vectorielle ϕ est une solution de (S), alors les solutions de (S)
sont de la forme ϕ + ϕH , avec ϕH est une solution du syst homog (SH ).

En général, on utilise une technique dite méthode de variation des constantes pour calculer les
solutions du syst (S).
Proposition 9.3.2. Soit A ∈ Mn (K) et B ∈ C(I, Kn ). Alors pour tout t0 ∈ I et X0 ∈ Kn , la
solution ϕ du syst différentiel
X ′ = AX + B(t)
vérifiant ϕ(t0 ) = X0 est donnée par la formule
Z t
(t−t0 )A
∀t ∈ I, ϕ(t) = e X0 + e(t−s)A B(s)ds.
t0

Démonstration. D’apre théor de Cauchy-Lipschitz, le syst admet une unique solution ϕ valant X0
en t0 et définie sur I tout entier. On utilise la méthode de variation de la constante pour déterminer
ϕ. On sait que les solutions de (SH ) sont du type t 7→ etA Y , donc on écrit ϕ(t) = etA Y (t). On a

ϕ′ (t) − Aϕ(t) = AetA Y (t) + etA Y ′ (t) − AetA Y (t) = etA Y ′ (t),

donc ϕ est solution de (S) si, et seulement si,

∀t ∈ I, Y ′ (t) = e−tA B(t).

Donc si, et seulement si, il existe Y0 ∈ Kn tel que


Z t
∀t ∈ I, Y (t) = Y0 + e−sA B(s)ds.
t0

Puisque Y0 = Y (t0 ) = e−t0 A ϕ(t0 ) = e−t0 A X0 , on en déduit la formule.


Exemple 9.3.2. Déterminer la solution ϕ du syst différentiel linéaire (S) vérifiant ϕ(0) = (1, −1, 0) :
 ′
 x (t) = 5x(t) + 3y(t) + z(t) + sin(t)
(S) y ′ (t) = −3x(t) −y(t) −z(t) + et
 ′
z (t) = −5x(t) −4y(t)
108 CHAPITRE 9. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE

L’écriture matricielle de (S) est


   
5 3 1 sin(t)
X ′ = AX + B, avec A =  −3 −1 −1  et B =  et  .
−5 −4 0 0

On montre que

−et + 2tet + 2e2t 2e2t − 2et + tet tet


 

etA =  −2tet − e2t + et 2et − e2t − tet −tet  .


−2tet − 3e2t + 3et −3e2t + 3et − tet e − tet
t

Rt
En utilisant la formule ∀t ∈ I, ϕ(t) = etA X0 + 0 e(t−s)A B(s)ds, on obtient la solution de (S)
vérifiant ϕ(0) = (1, −1, 0) :
2et − 32 cos(t) − 13
 

ϕ(t) =  − 25 et + 76 cos(t) + 13  .
− 25 et + 56 cos(t) + 53

Remarque 9.3.2. Soit (S) le système différentiel linéaire X ′ = AX +B, avec A ∈ Mn (K) scindée
sur K. Soit P une matrice inversible telle que J = P −1 AP soit une matrice réduite de Jordan. En
faisant le changement de variables X = P Z, le système (S) devient Z ′ = JZ + B ′ . Puisque J est
une réduite de Jordan, le nouveau système se présente d’une manière plus simple et sa résolution
se ramne à résoudre n équations différentielles linéaires du premier ordre.

Exemple 9.3.3. On considère à nouveau le système


   
5 3 1 sin(t)
X ′ = AX + B, avec A =  −3 −1 −1  et B =  et  .
−5 −4 0 0

Le polynôme caractéristique de A est χA (X) = (X − 1)2 (X − 2). On montre que les deux sosu-
espaces caractéristiques de A sont :

F1 = Vect{(uA − Id)(e3 ) = e1 − e2 − e3 , e3 } F2 = Vect{2e1 − e2 − 3e3 }


   
1 1 0 1 0 2
Donc une réduite de Jordan de A est J = P −1 AP =  0 1 0  , avec P =  −1 0 −1  .
0 0 2 −1 1 −3
Posons X = P Z, alors notre système devient Z ′ = JZ + B ′ avec

−sin(t) − 2et
 

B ′ = P −1 B =  2 sin(t) + et  .
sin(t) + et

On doit donc résoudre 3 équations différentielles linéaires du premier ordre :


 ′
 z1 = z1 + z2 − sin(t) − 2 et
z′ = + z2 2 sin(t) + et
 2′
z3 = 2 z3 + sin(t) + et

La résolution de ces équations se fait une par une du bas en haut.


9.4. EQUATIONS DIFFÉRENTIELLES SCALAIRES D’ORDRE N 109

9.4 Equations différentielles scalaires d’ordre n


Considérons les équations différentielles linéaires à coefficients constants d’ordre n du type

(E) y (n) + an−1 y (n−1) + · · · + a0 y = b(t)

avec a0 , . . . , an−1 ∈ K et b une fonction continue d’un intervalle I de R dans K.


La proposition suivante permet de ramener l’équation (E) à un syst différentiel linéaire.
Proposition 9.4.1. La fonction φ ∈ C n (R, K) est solution de (E) si, et seulement si, la fonction
ϕ = (φ, φ′ , . . . , φ(n−1) ) est solution du syst différentiel linéaire du premier ordre Y ′ = AY + B
avec A la transposée de la matrice compagnon du polynP(X) = Xn + an−1 X n−1 + · · · + a0 et
B(t) = (0, . . . , 0, b(t)).

Démonstration. Posons
 
0 1 ··· ··· 0

 0 0 1 ··· 0 

A= CPt = .. .. .. .. ..
.
 
 . . . . . 
 0 ··· ··· 0 1 
−a0 ··· ··· ··· −an−1

On a
n−1
X n−1
X
∀1 ≤ j ≤ n−2 ϕ′j+1 = (φ(j) )′ = φ(j+1) = ϕj+2 , ϕ′n = (φ(n−1) )′ = φ(n) = − ai φ(i) +b(t) = − ai ϕi+1 +b(t).
i=0 i=0

Donc, en notant Y (t) = (y(t), y ′ (t), . . . , y (n−1) (t)) et B(t) = (0, . . . , 0, b(t)), l’équation différentielle (E)
devient
Y ′ = AY + B.
Exemple 9.4.1. Résoudre l’équation différentielle linéaire y ′′ + y = sin(t).  
0 1
L’écriture matricielle de cette équation différentielle est : X ′ = AX + B, avec A = et B(t) =
−1 0
 
0
. On montre que
sin(t)
 
cos(t) sin(t)
etA = .
−sin(t) cos(t)
Enfin, on obtient les solutions :
1 1
y(t) = (2α − t)cos(t) + (2β + 1)sin(t), α, β ∈ R.
2 2
110 CHAPITRE 9. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE
Bibliographie

[1] Roger Godment. Cours d’algèbre. Hermann 1997.


[2] Joseph Grifone. Algèbre linéaire. Toulouse Gépaduès. 2015.
[3] Josette Calais. Eléments de théorie des groupes. Presses universitaires de France. 2014.
[4] Gérard Debeaumarché. Algèbre et Géométrie : 2ème année de prépas scientifiques MP-MP*. Ellipses.
2006.
[5] Jacqueline Lelong-Ferrand, Jean-Marie Arnaudiès. Cours de mathématiques, tome 1. Dunod. 2003.
[6] Gilbert Strang. Introduction à l’algèbre linéaire. Montréal, Presses internationales Polytechnique.
2015. (traduit par Steven Dufour).
[7] Jean-Marie Monier. Algèbre 2 – cours et 500 exercices corrigés. Dunod. 2009.

111

Vous aimerez peut-être aussi