Académique Documents
Professionnel Documents
Culture Documents
Poly Algebre2 Cs
Poly Algebre2 Cs
College of Computing
School of Computer Science
Cycle préparatoire
Cours d’algèbre 2 : 1ère année
B. Sadik
A.U. 2023/2024
2
Préface
Ce cours est destiné aux élèves de la première année du cycle préparatoire de la "School of Computer
Science" de l’université Mohamed VI polytechnique de Benguerir. Il introduit les notions de base d’al-
gèbre linéaire, notamment les espaces vectoriels, les applications linéaires, le déterminant et la réduction
des endomorphismes. Pour des connaissances approfondies, on réfère aux livres [1, 2, 4, 3, 5, 7, 6].
Le premier chapitre est une introduction au calcul matriciel et à la résolution des systèmes linéaires.
On y donne les opérations sur les matrices et quelques propriétés importantes. Enfin on étudie quelques
méthodes pour la résolution des systèmes linéaires à coefficients réels ou complexes et on s’intéresse en
particulier à la méthode d’élimination de Gauss.
Dans le deuxième chapitre on introduit les premières définitions et propriétés des espaces vectoriels.
Nous y développons les résultats essentiels : sous-espaces vectoriels, famille libre, base, somme directe.
Dans le troisième chapitre on étudie les espaces vectoriels de dimension finie. On démontre l’existence
de bases et on développe la théorie de la dimension. Ensuite on donne les propriétés importantes liées à
la dimension.
Le quatrième chapitre est dédié à l’étude des applications linéaires. On donnera une importance à
la caractérisation des applications linéaires injectives, surjectives et bijectives et les conséquences immé-
diates. Le théorème du rang, très utile en algèbre linéaire, sera illustré. On développe ensuite les matrices
d’applications linéaires et le rôle important que jouent dans l’étude des applications linéaires entre espaces
vectoriels.
Dans le cinquième chapitre on introduit la notion du déterminant en développant les propriétés des
applications linéaires alternées. On définit ensuite le déterminant de matrices et d’endomorphismes puis
on donne les propriétés et les méthodes de calcul.
Les derniers chapitres sont réservés à la réduction des endomorphismes et des matrices carrées. On
étudie les polynômes d’endomorphismes, le polynôme minimal, le polynôme caractéristique, le théorème
de Cayley-Hamilton, les éléments propres, la diagonalisation d’endomorphismes et de matrices carrées,
la trigonalisation et la réduction de Jordan. Des applications importantes seront données pour montrer
l’utilité des notions étudiées : résolution des systèmes linéaires récurrents et des systèmes différentiels
linéaires.
Table des matières
2 Espaces vectoriels 17
2.1 Structure d’espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Familles libres, liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.4 Partie génératrice, Base d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . 23
4 Applications linéaires 31
4.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.2 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3 Isomorphismes d’espaces vectoriels, automorphismes . . . . . . . . . . . . . . . . . . . . . 35
4.4 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.5 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.6 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.7 Rang et trace d’une matrice, trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . 47
4.8 Formes linéaires, dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.8.1 Définitions et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.8.2 Base antéduale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5 Déterminants 53
5.1 Applications n-linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.2 Déterminant dans une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6 Polynômes d’endomorphismes 63
6.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2 Polynôme minimal d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
6.3 Lemme des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3
4 TABLE DES MATIÈRES
Dans la suite on délimite les tableaux correspondants aux matrices par des parenthèses.
1 −1 2 4
Exemples 1.1.1. 1. 2 0 4 1 est une matrice de type 3 × 4 à coefficients réels.
−5 6 5 7
−1 2 i
2. 5 i + 2 4 est une matrice de type 3 × 3 à coefficients complexes.
0 5 7
1
6
−5 est une matrice de type 4 × 1 à coefficients réels.
3.
7
4. 1 −1 2 4 5 est une matrice de type 1 × 5 à coefficients réels.
On note aij le coefficient qui se situe à l’intersection de la ligne i et la colonne j. Ainsi toute matrice
de type n × p est de la forme :
a11 a12 a13 · · · a1p
a21 a22 a23 · · · a2p
a31 a32 a33 · · · a3p
.. .. .. .. ..
. . . . .
an1 an2 an3 ··· anp
Une matrice carrée d’ordre n est une matrice avec le même nombre de lignes et de colonnes (n = p).
Une matrice de type n × 1 est dite un vecteur colonne. De même une matrice de type 1 × p est dite un
vecteur ligne.
5
6 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES
Notation 1.1.1. On note Mn,p (K) l’ensemble des matrices de type n × p à coefficients dans K. Si A est
un une matrice de Mn,p (K) on note A = (aij ), avec aij le coefficient qui se situe à l’intersection de la
ligne i et la colonne j.
Deux matrices A = (aij ) et B = (bij ) sont égales si elles sont de même type n × p et si aij = bij pour
1 ≤ i ≤ n et 1 ≤ j ≤ p.
Une matrice (aij ) ∈ Mn,p (K) dont tous les coefficients aij sont nuls s’appelle la matrice nulle de Mn,p (K).
On la note 0Mn,p (K) .
Une matrice carrée (aij ) d’ordre n telle que aii = 1 et aij = 0 lorsque i ̸= j s’appelle la matrice identité
d’ordre n. On la note In .
Exemples 1.1.2.
1 0
I2 =
0 1
1 0 0 0
0 1 0 0
I4 =
0
0 1 0
0 0 0 1
On définit sur les matrices les opérations d’addition, de multiplication par des scalaires, de multipli-
cation et de transposition comme suit :
Addition Soit A = (aij ) et B = (bij ) deux matrices du même type n × p. La somme de A et B, que
l’on note A + B, est la matrice C = (cij ) de type n × p définie par
Soit A = (aij ) une matrice de type n × p. On note −A la matrice −A = (bij ), avec bij = −aij pour
1 ≤ i ≤ n et 1 ≤ j ≤ p. La matrice −A s’appelle le symétrique ou l’opposé de A.
L’ensemble Mn,p (K) muni de la loi d’addition sur les matrices admet une structure de groupe com-
mutatif. Plus précisément on a la proposition suivante :
Multiplication par un scalaire Soit A = (aij ) une matrice de type n × p et soit λ ∈ K. La multipli-
cation de A par λ, que l’on note λA, est la matrice C = (cij ) de type n × p définie par
cij = λaij ∀ 1 ≤ i ≤ n ∀1 ≤ j ≤ p.
1 2 −3 1
4 2 0 2
Exemple 1.1.2. Soit la matrice A = 3 1 −3 4 Alors
−1 0 3 1
1
− 23 1
3 6 −9 3 2 1 2
12 6 0 6 1 2 1 0 1
3A = A= 3 1
9 3 −9 12 2 2 2 − 32 2
1 3 1
−3 0 9 3 −2 0 2 2
Remarque 1.1.1. Si A est une matrice de Mn,p (K), alors la matrice (−1)A est égal à l’opposé de A.
C’est-à-dire (−1)A = −A.
Produit de matrices On commence par définir le produit d’un vecteur ligne de type 1 × p par un
vecteur colonne de type p × 1.
b11
b21
Définition 1.1.2. Soit U = a11 a12 ··· a1p et V = . Le produit de U par V , que l’on
..
.
bp1
note U V , est le scalaire défini par
U V = a11 b11 + a12 b21 + · · · + a1p bp1 .
2
−1
Exemples 1.1.3. Soit U = 1 2 −2 4 et V = 3 . Alors U V = 2 − 2 − 6 + 4 = −2.
1
On définit maintenant le produit de deux matrices A et B. Pour que ce produit soit défini il faut que
le nombre de colonnes de A soit égal au nombre de lignes de B.
Définition 1.1.3. Soit A une matrice de type n × p et B une matrice de type p × m. Le produit de A
par B, que l’on note AB, est la matrice C = (cij ) de type n × m, avec cij est le produit de la i-ème ligne
de A par la j-ème colonne de B. Plus concrètement :
p
X
cij = aik bkj 1 ≤ i ≤ n 1 ≤ j ≤ m.
k=1
1 2 3
−2 0 4 1 3
Exemples 1.1.4. 1. Soit A =
1 −1 1 et B =
−3 2 . Le produit AB est bien défini
2 1
−2 4 1
et la matrice AB est de type 4 × 2. On a alors :
1 10
6 −2
AB = 6
.
2
−12 3
8 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES
Le produit BA n’est pas défini puisque le nombre de colonnes de B est différent du nombre de
lignes de A.
1 3 1 3
2. Soit A = −3 2 2 et V = 2 . Le produit AV est bien défini et on a
2 1 1 −1
8
AV = −7 .
7
La multiplication sur les matrices est associative mais n’est pas commutative. On a la proposition
suivante :
Proposition 1.1.2. 1. La multiplication est associative mais n’est pas commutative.
— ∀A ∈ Mn,p (K) ∀B ∈ Mp,q (K) ∀C ∈ Mq,r (K) (AB)C = A(BC).
— ∀A ∈ Mn,n (K) AIn = In A = A.
2. La multiplication est distributive par rapport à l’addition.
— ∀A ∈ Mn,p (K) ∀B, C ∈ Mp,q A(B + C) = AB + AC.
— ∀A, B ∈ Mn,p ∀C ∈ Mp,q (A + B)C = AC + BC.
1 2 0 1
Exemples 1.1.5. 1. Soit A = et B = .
−1 3 2 1
4 3 −1 3
On a AB = et BA = . Ceci montre que la multiplication des matrices n’est
6 2 1 7
pas commutative.
Définition 1.1.4. Soit A une matrice carrée d’ordre n.
1. Pour un entier naturel m, la puissance m-ème de A est définie récursivement comme suit :
(a) A0 = In .
(b) et Am = Am−1 A pour m ≥ 1.
2. Si P = a0 + a1 X + · · · + ap X p est un polynôme de K[X] alors l’évaluation de P en A (ou la valaur
de P en A) est la matrice
P (A) = a0 In + a1 A + · · · + ap Ap .
Exemple 1.1.3. Soit A la matrice réelle d’ordre 2 :
1 2
A=
−1 1
On a
2 −1 4 3 −5 2
A = A =
−2 −1 −1 −5
Pour le polynôme P = 1 + X + 2X 2 + X 3 on a
−5 12
P (A) = I2 + A + 2A2 + A3 = .
−6 −5
On a la proposition suivante :
Proposition 1.1.3. Soit P et Q deux polynômes de K[X]. Alors :
Pour toute matrice A de Mn (K) on a
1. (P + Q)(A) = P (A) + Q(A) = Q(A) + P (A).
2. (P Q)(A) = P (A)Q(A) = Q(A)P (A).
1.1. CALCUL MATRICIEL 9
Transposition
Définition 1.1.5. Soit A = (aij ) une matrice de type n × p. On appelle transposée de A, que l’on note
AT , la matrice AT = (bij ) de type p × n et définie par
bij = aji , ∀1 ≤ i ≤ j ∀1 ≤ j ≤ p.
1 2 −1
3 4 0
Exemples 1.1.6. 1. Soit A =
. La transposée de A est
2 1 6
−2 1 −3
1 3 2 −2
AT = 2 4 1 1 .
−1 0 6 −3
2. Soit le vecteur ligne U = 1 2 −1 2 . Alors U T est le vecteur colonne
1
2
UT =
−1 .
2
1 2 1
3. Soit A = 3 −1 0 . La transposée de A est
2 2 6
1 3 2
AT = 2 −1 2 .
1 0 6
Définition 1.1.6. Une matrice carrée A est symétrique si AT = A. Elle est antisymétrique si AT = −A.
1 2 −1
Exemples 1.1.7. 1. La matrice 2 4 0 est symétrique.
−1 0 6
0 2 −1
2. La matrice −2 0 −1 est antisymétrique.
1 1 0
1 1
A( (−A2 + 6I3 )) = ( (−A2 + 6I3 ))A = I3 .
7 7
Ceci montre que A est inversible et
3 2 1
1 1
A−1 = ( (−A2 + 6I3 )) = 2 −1 3 .
7 7
−2 1 4
Nous allons voir dans la suite comment caractériser les matrices inversibles et comment calculer leurs
inverses.
Définition 1.2.2. Soient n, p deux entiers positifs. Un système linéaire à coefficients dans K est la
donnée de n équations linéaires en p variables à coefficients dans K :
a1,1 x1 + a1,2 x2 + · · · + a1,p xp = d1
a2,1 x1 + a2,2 x2 + · · · + a2,p xp = d2
.. (1.1)
.
an,1 x1 + an,2 x2 + · · · + an,p xp = dn
Le vecteur ligne (s1 , s2 , . . . , sp ) est une solution de ce système s’il est solution de toutes ses équations.
Remarque 1.2.1. Les variables d’un système linéaire s’appellent aussi les inconnues du système.
2. Le système
2x + 2y = 1
x+y =0
n’admet pas de solutions.
Soit A = (aij ), 1 ≤ i ≤ n, 1 ≤ j ≤ p la matrice de Mn,p (K) dont les coefficients aij sont ceux du
système linéaire (1.1). Posons
x1 d1
x2 d2
X= et B = .
.. ..
. .
xp dn
AX = B.
s1
s2
Ainsi résoudre (1.1) revient à déterminer tous les vecteurs colonnes S = vérifiant AS = B.
..
.
sp
Théorème 1.2.1 (Méthode de Gauss). Si un système linéaire est transformé en un autre par l’une des
opérations suivantes :
1. une équation est échangée avec une autre
2. une équation est multipliée par une constante non nulle
3. une équation est remplacée par la somme d’elle même et une autre équation multipliée par une
constante non nulle
alors les deux systèmes ont les mêmes solutions. On dira alors que les deux systèmes sont équivalents.
Définition 1.2.3. Les trois transformations du théorème 1.2.1 s’appellent les transformations élémen-
taires, (ou simplement les transformations) de Gauss.
12 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES
Pour des raisons de simplicité on utilise la représentation matricielle d’un système linéaire. Le système
linéaire (1.1) est représenté par la matrice augmentée
a1,1 a1,2 ··· a1,p | d1
a2,1 a2,2 ··· a2,p | d2
(1.2)
.. .. .. .. .. ..
. . . . . .
an,1 am,2 ··· an,p | dn
Etant donné un système linéaire, On parle d’équation ou de ligne et on note la ième ligne par ℓi .
1
1 3 −2 | 2 2 ℓ1
3 11 −2 | 8 ℓ2
5 16 −7 | 12 ℓ3
1
On multiplie la deuxième ligne du système obtenu par 2 et on retranche son opposé de la troisième ligne,
on aura
1 3 −2 | 2
1
0 1 2 | 1 2 ℓ2 (1.4)
0 0 1 | 1 ℓ3 − 12 ℓ2
La solution est maintenant facile à calculer. La troisième ligne montre que z = 1. On substitue le résultat
dans la deuxième ligne et on obtient y = −1 et finalement on obtient x = 7.
2 −2 2 | 0
1
0 1 −1 | 0 4 ℓ2
0 0 0 | 2 ℓ3 − 41 ℓ2
Dans un système linéaire, on peut avoir plus d’équations que d’inconnues ou moins d’équations que
d’inconnues.
1
1 −1 1 1/2 | 1/2 2 ℓ1
1
1 1 −1 −1/2 | 0 2 ℓ2
1 1 −1 1 | 1 ℓ3
1 −1 1 1/2 | 1/2
0 2 −2 −1 | −1/2 ℓ2 − ℓ1
0 2 −2 1/2 | 1/2 ℓ3 − ℓ1
1 −1 1 1/2 | 1/2
1
0 1 −1 −1/2 | −1/4 2 ℓ2
0 0 0 3/2 | 1 ℓ3 − ℓ2
Le système correspondant à cette représentation matricielle est
x − y + z + 12 w = 1
2
+ y − z − 2 w = − 14
1
3
2w = 1
L’ensemble des solutions du système est égal à l’ensemble {(1/4, z + 1/12, z, 2/3) : z ∈ K}.
1.2. RÉSOLUTION DES SYSTÈMES LINÉAIRES 15
1 2 −2 | 1 0 0
0 −2 4 | −2 1 0 on remplace ℓ3 par ℓ3 − 3ℓ2
0 0 −4 | 4 −3 1
1 2 −2 | 1 0 0
0 1 −2 | 1 − 21 0 on divise ℓ2 par −2 et ℓ3 par −4
3
0 0 1 | −1 4 − 41
1 2 −2 | 1 0 0
0 1 0 | −1 1 − 21 on remplace ℓ2 par ℓ2 + 2ℓ3
3
0 0 1 | −1 4 − 41
− 21 1
1 0 0 | 1 2
0 1 0 | −1 1 − 12 on remplace ℓ1 par ℓ1 − 2ℓ2 + 2ℓ3
3
0 0 1 | −1 4 − 41
Ainsi l’inverse de A est
− 21 1
1 2
A−1 = −1 1 − 12
3
−1 4 − 14
16 CHAPITRE 1. CALCUL MATRICIEL ET SYSTÈMES LINÉAIRES
Chapitre 2
Espaces vectoriels
Exemple 2.1.1. 1) La multiplication d’un polynôme par un réel est une loi de composition externe
sur R[X].
2) Soit E = R3 . L’application notée · de R × R3 dans R3 définie par α · (x, y, z) = (αx, αy, αz) est
une loi de composition externe sur R3 .
Définition 2.1.1. On appelle espace vectoriel sur K (ou K-espace vectoriel) un ensemble non vide E
muni de deux lois :
1. Une loi de composition interne, notée +, telle que (E, +) soit un groupe commutatif.
2. Une loi de composition externe, notée ·, telle que :
i) ∀ α, β ∈ K ∀ v ∈ E (α + β) · v = α · v + β · v
ii) ∀ α ∈ K ∀ v, w ∈ E α · (v + w) = α · v + α · w
iii) ∀ α, β ∈ K ∀ v ∈ E α · (β · v) = (αβ) · v
iv) ∀ v ∈ E 1 · v = v.
L’espace vectoriel E muni de ces deux lois est noté (E, +, ·) ou simplement E lorsqu’il n’y a pas de
confusion. Le symétrique w d’un élément v de E pour + est noté −v.
Remarque 2.1.1. 1) Les éléments de E s’appellent des vecteurs et ceux de K s’appellent des sca-
laires.
2) Lorsqu’il n’y a pas de confusion, l’élément neutre 0E pour la loi + est noté simplement 0.
Exemple 2.1.2. 1. Soit (E, +, ·) un K-espace vectoriel et soit X un ensemble non vide. Le groupe
(F(X, E), +) des applications de X dans E, est un K-espace vectoriel, avec la loi externe, notée
aussi ·, définie par
2. Pour tout entier positif n, le groupe (Kn , +) est un K-espace vectoriel, avec la loi externe définie
par
∀α, a1 , a2 , . . . , an ∈ K : α · (a1 , a2 , . . . , an ) = (αa1 , αa2 , . . . , αan ).
17
18 CHAPITRE 2. ESPACES VECTORIELS
3. L’anneau des polynômes K[X] est un K-espace vectoriel pour les deux lois :
i) La loi interne définie par :
4) Soit E = Mn,p (K), où n et p sont des entiers naturels positifs. Muni de l’addition + de matrices
et de la multiplication par des scalaires , E est un K-espae vectoriel.
i) La loi interne + est définie par :
5) Si E et F sont des K-espaces vectoriels alors le produit E × F muni des deux lois suivantes est un
K-espace vectoriel.
i) La loi interne définie par :
2. ⇐=) Pour montrer l’implication inverse, les seuls points à vérifier sont les points ii) et iii) de la
loi interne + (voir Définition 2.1.1).
Prenons α = 0 et v ∈ F , alors α · v = 0E ∈ F et donc F possède un élément neutre pour la loi +.
Soit v ∈ F , par définition de E il existe w ∈ E tel que v + w = w + v = 0E , donc w = −v =
(−1) · v ∈ F .
Comme F est non vide, (F, +, ·) est un K-espace vectoriel et donc F est un sous-espace vectoriel
de E. ♣
On peut résumer ce dernier résultat sous la forme suivante :
Corollaire 2.2.1. Une partie F de E est un sous-espace vectoriel de E si et seulement si :
1. F est non vide,
2. ∀ α ∈ K ∀ v, w ∈ F α · v + w ∈ F .
Exemples 2.2.1. 1) Le singleton {0E } et E sont des sous-espaces vectoriels de E.
2) L’ensemble des fonctions continues de R dans R est un sous-espace vectoriel de F(R, R).
3) L’esnemble des polynômes de K[X] de degré inférieur ou égal à un entier n est un sous-espace
vectoriel de K[X]. On le note Kn [X].
Proposition 2.2.2. Soit (Fi )i∈I une famille de sous-espaces vectoriels de E. Alors
F = ∩i∈I Fi
Si (vi )i∈I est une famille quelconque de E on dit qu’un élément v de E est combinaison linéaire de la
famille (vi )i∈I s’il existe une partie finie J de I et une famille (λj )j∈J de scalaires telles que :
X
v= λ j vj .
j∈J
Un élément v de E est une combinaison linéaire des éléments d’une partie V de E s’il est combinaison
linéaire de la famille (v)v∈V .
On convient que X
λv = 0E .
v∈∅
20 CHAPITRE 2. ESPACES VECTORIELS
Exemple 2.2.1.
1) Dans R3 le vecteur (2, 0, 1) est une combinaison linéaire des deux vecteurs (1, 0, 0) et (0, 0, 1). En effet
2) Dans R[X], un polynôme de degré inférieur ou égal à un entier n est une combinaison linéaire des
éléments de la famille (1, X, X 2 , . . . , X n ).
Le résultat suivant est évident.
Proposition 2.2.3. Soit V une partie de E. L’intersection de tous les sous-espaces vectoriels de E qui
contiennent V est un sous-espace vectoriel de E.
On l’appelle sous-espace vectoriel engendré par V et on le note Vect(V ).
Remarque 2.2.2. Le sous-espace vectoriel engendré par une partie V de E est le plus petit sous-espace
vectoriel de E contenant V . Autrement dit, c’est un sous-espace vectoriel de E inclu dans tout autre
sous-espace vectoriel de E qui contient V .
Exemples 2.2.2. 1. Vect(∅) = {0E }.
2. Si F est un sous-espace vectoriel de E alors Vect(F ) = F .
Proposition 2.2.4. Soit V une partie d’un K-espace vectoriel E. Alors Vect(V ) est l’ensemble des
combinaisons linéaires des éléments de V .
Démonstration. Soit P F l’ensemble des combinaisons linéaires des éléments de V . Si V = ∅ alors par
convention
Pp 0 E = Pqv∈∅ λv ; sinon 0E = 0.v pour tout v ∈ V . Ceci montre que 0E ∈ F . Soient u =
i=1 αi v i et v = j=1 βj wj , avec
α1 , . . . , αp , β1 , . . . , βq ∈ K, v1 , . . . , vp , w1 , . . . , wq ∈ V.
est une combinaison linéaire des éléments de V . Il s’ensuit que F est un sous-espace vectoriel de E d’après
le corollaire 2.2.1.
Par construction F est inclu dans tout sous-espace vectoriel de E contenant V , alors F ⊂ Vect(V ). Mais
F contient V donc Vect(V ) ⊂ F . D’où F = Vect(V ). ♣
Exemples 2.2.3. 1. Dans R3 , soit v1 = (1, 0, 0)) et v2 = (0, 1, 1), alors
Vect(v1 , v2 ) = {α · v1 + β · v2 : α, β ∈ R}
= {(α, 0, 0) + (0, β, β) : α, β ∈ R}
= {(α, β, β) : α, β ∈ R}
F +G = {v ∈ E /∃ v1 ∈ F ∃ v2 ∈ G : v = v1 + v2 }
= {v1 + v2 /v1 ∈ F, v2 ∈ G}
F + G = Vect(F ∪ G).
Définition 2.2.2. La somme de deux sous-espaces vectoriels F et G est une somme directe si tout
élément de F + G se décompose d’une façon unique comme somme d’un élément de F et d’un élément
de G. Autrement dit,
∀u ∈ F + G ∃!(v, w) ∈ F × G : u = v + w.
Dans ce cas on écrit F ⊕ G au lieu de F + G.
Proposition 2.2.6. Soit F et G deux sous-espaces vectoriels de E. La somme F + G est directe si et
seulement si F ∩ G = {0}.
Démonstration. 1. =⇒) Soit v ∈ F ∩ G, alors v = v + 0 = 0 + v est une écriture de v comme somme
d’éléments de F et G. Comme la somme est directe on a nécessairement v = 0.
2. ⇐=) Soit v ∈ F + G, montrons qu’il se décompose d’une manière unique comme somme d’un
élément de F et d’un élément de G. Supposons que
v = v1 + v2 = w1 + w2 avec v1 , w1 ∈ F v2 , w2 ∈ G
∀ α1 , . . . , αp ∈ K α1 · v1 + α2 · vp + · · · + αp · vp = 0E =⇒ α1 = α2 = · · · = αp = 0.
∃ α1 , . . . , αp ∈ K α1 · v1 + α2 · vp + · · · + αp · vp = 0E et ∃ i ∈ {1, . . . , p} αi ̸= 0.
qui admet l’unique solution (0, 0, 0). Donc les vecteurs v1 , v2 et v3 sont linéairement indépendants
dans R3 .
3) Soient f1 , f2 et f3 trois fonctions de R dans R définies comme suit :
La relation sin(2x) = 2cos2 (x) − 1 implique que la famille (f1 , f2 , f3 ) est une famille liée dans le
R-espace vectoriel F(R, R).
Définition 2.3.2. 1. Soit I un ensemble. Une famille (vi )i∈I de vecteurs de E est libre si pour tout
sous-ensemble fini J de I, la famille finie (vj )j∈J est libre. Si la famille (vi )i∈I n’est pas libre, on
dit qu’elle est liée.
2. Une partie V de E est libre si la famille (v)v∈V est une famille libre. Elle est liée dans le cas
contraire.
Exemples 2.3.1. 1. L’ensemble ∅ est une partie libre.
i
2. La famille (X )i∈N est une famille libre de K[X].
3. Pour λ ∈ R, on définit la fonction fλ par
∀x ∈ R f (x) = eλx
Démonstration. =⇒) Supposons que la famille (v1 , . . . , vp ) est liée, il existe des scalaires α1 , . . . , αp non
tous nuls tels que
α1 · v1 + α2 · vp + · · · + αp · vp = 0E .
Soit i tel que αi ̸= 0 alors
−α1 −α2 −αi−1 −αi+1 −αp
vi = · v1 + · v2 + · · · + · vi−1 + · vi+1 + · · · + · vp .
αi αi αi αi αi
Le vecteur vi est donc une combinaison linéaire des éléments de la famille (v1 , . . . , vi−1 , vi+1 , . . . , vp ).
⇐=) Supposons qu’un vecteur vi s’écrit
alors
α1 · v1 + · · · + αi−1 · vi−1 − vi + αi+1 · vi+1 + · · · + αp · vp = 0E
Ceci implique que la famille (v1 , . . . , vp ) est une famille liée. ♣
Remarque 2.3.1. Pour tout vecteur v et tout scalaire α, la famille (v, αv) est liée.
Exemple 2.3.2. 1) Soit v1 = (1, 0, −1), v2 = (1, 1, 1) et v3 = (5, 3, 1). On a v3 = 2v1 + 3v2 et donc
la famille (v1 , v2 , v3 ) est liée.
2) Considérons les polynômes P1 (X) = 1 + X, P2 (X) = −1 + 2X + 3X 2 , P3 (X) = X + X 2 . On a
P1 (X) + P2 (X) − 3P3 (X) = 0, ce qui implique que la famille (P1 , P2 , P3 ) est liée.
2. Pour un entier n ∈ N⋆ , le K-espace vectoriel Kn est engendré par la famille (e1 , e2 , . . . , en ), avec
ei = (0, · · · , 0, 1, 0, · · · , 0) et 1 situé dans la ième position.
3. Soit E = C(R, R) l’espace vectoriel des fonctions continues de R dans R. Pour k ∈ N, soit fk la
fonction définie par fk (x) = ekx ∀ x ∈ R. Alors pour tout n ∈ N, la famille (fk )0≤k≤n n’est pas
une famille génératrice de E. En effet, supposons qu’il existe un entier naturel n tel que la famille
Pan0 , a1 , . . . , an ∈ R tels que sin = a0 f0 + a1 f1 + · · · + an fn .
(fk )0≤k≤n soit génératrice, alors il existe
Donc ∀ x ∈ R sin(x) = P (ex ), où P = k=0 ak X k . Comme la fonction sin admet une infinité de
zéros et la fonction exponentielle est injective le polynôme P admet une infinité de racines. Ceci
montre que P est nul et donc tous les scalaires ak sont nuls i.e la fonction sin est nulle. Ceci est
absurde.
Remarques 2.4.1. 1. Soit E un K-espace vectoriel. Si V est une partie génératrice de E alors toute
partie de E contenant V est une partie génératrice de E.
2. Soient F1 , F2 , . . . , Fr des sous-espaces vectoriels de E. Si V1 , V2 , . . . , Vr sont des parties généra-
trices respectives des sous-espaces vectoriels F1 , F2 , . . . , Fr . Alors V1 ∪ V2 ∪ · · · ∪ Vr est une partie
génératrice de F1 + F2 + · · · + Fr .
Définition 2.4.2. Une partie V de E est une base de E si elle est à la fois libre et génératrice.
Exemples 2.4.2. 1. La famille (X i )i∈N est une base de K[X].
2. Pour tout entier n ∈ N⋆ , la famille (e1 , e2 , . . . , en ), avec (ei = (0, · · · , 0, 1, 0, · · · , 0) et 1 situé dans
la ième position), est une base du K-espace vectoriel Kn . On l’appelle base canonique de Kn .
Le théorème suivant est à admettre.
Théorème 2.4.1. 1. Tout K-espace vectoriel admet une base.
2. Toute partie génératrice de E contient une base de E.
3. Toute partie libre de E est contenue dans une base de E.
Chapitre 3
λj
(wj − wn+2 )1≤j≤n+1
λn+2
est liée dans E. D’où la famille (w1 , . . . , wn+2 ) est liée. ♣
25
26 CHAPITRE 3. ESPACES VECTORIELS DE DIMENSION FINIE
Exemples 3.1.2. 1. La famille (1, X, . . . , X n ) est une famille génératrice de Kn [X], donc toute fa-
mille de Kn [X] à n + 2 éléments est liée.
2. L’espace F(R, C) est de dimension infinie. Sinon il admet une famille génératrice finie (f1 , . . . , fn ).
Mais la famille de fonctions (ekx , k ∈ {0, . . . , n}), à n + 1 éléments, est une famille libre, ce qui
est contradictoire.
Corollaire 3.1.1. Si E est de dimension finie et si (v1 , . . . , vn ) est une famille libre de E, alors toute
famille génératrice de E est formée d’au moins n vecteurs.
Démonstration. Si E = {0}, alors {∅} est une base de E. Sinon soit (v1 , . . . , vn ) une famille génératrice
de E et soit (vk1 , . . . , vkr ) une sous-famille de (v1 , . . . , vn ) libre et de cardinal maximal. Posons wj = vkj
pour j = 1, . . . , r, alors ∀ j ̸∈ {k1 , . . . , kr }, la famille (w1 , . . . , wr , vj ) est liée. Ceci montre que ∀ j ̸∈
{k1 , . . . , kr }, vj ∈ Vect{w1 , . . . , wr }. Il s’ensuit que E = Vect{v1 , . . . , nn } ⊂ Vect{w1 , . . . , wr }. D’où
(w1 , . . . , wr ) est une famille libre et génératrice de E. Ceci prouve le théorème. ♣
Théorème 3.1.3. Si E est de dimension finie alors toutes les bases de E ont le même cardinal.
Démonstration. Soient B = (e1 , . . . , en ) et B ′ = (v1 , . . . , vm ) deux bases E. Comme B est libre et B ′ est
génératrice il vient n ≤ m. De même, puisque B ′ est libre et B est génératrice alors n ≥ m. D’où n = m.
♣
Définition 3.1.2. Soit E un K-espace vectoriel de dimension finie. Le cardinal de l’une des bases de E
s’appelle la dimension de E. On la note dim(E) ou dim E.
La dimension d’un sous-espace vectoriel de E est sa dimension en tant que K-espace vectoriel.
Lorsque E est de dimension 1 on dit que E est une droite vectorielle et lorsqu’il est de dimension 2 on
parle de plan vectoriel.
Proposition 3.1.1. Soit E un K-espace vectoriel de dimension finie n et B = (e1 , . . . , en ) une base de
E. Alors tout vecteur de E s’écrit d’une manière unique comme combinaison linéaire des éléments de B.
Démonstration. Soit v un vecteurP de E. Puisque B est une base de E, elle est génératrice. Il existe donc
n
, αn ∈ K tels que v = i=1 αi ei . Supposons qu’ilP
α1 , α2 , . . . P existe β1 , β2 , . . . , βn ∈ K tels que v s’écrit
n n
aussi v = i=1 βi ei . Par soustraction, on obtient la relation i=1 (αi − βi )ei = 0. Comme B est libre on
a nécessairement αi = βi pour 1 ≤ i ≤ n. ♣
Démonstration. 1) Soit (v1 , v2 , . . . , vn ) une famille libre à n éléments. Si v est un élément de E alors la
famille (v1 , . . . , vn , v) est liée et par la proposition 2.3.1, le vecteur v appartient à Vect{v1 , v2 , . . . , vn }.
Ceci montre que la famille (v1 , v2 , . . . , vn ) est à la fois libre et génératrice et donc c’est une base
de E.
2) Soit (v1 , v2 , . . . , vn ) une famille génératrice à n éléments. Si la famille (v1 , v2 , . . . , vn ) est liée alors
l’un des vecteurs vi est une combinaison linéaire des autres. Il s’ensuit que E admet une famille
génératrice de cardinal inférieur ou égal à n − 1. Ceci est impossible.
♣
Supposons que E est de dimension n. Une famille de n vecteurs de E qui est libre est dite libre
maximale. De même une famille de n vecteurs de E qui est génératrice est dite génératrice minimale.
Exemple 3.1.2. 1) Dans C3 , soit v1 = (i, 0, 0), v2 = (1 + i, 1 − i, 0) et v3 = (5, 3 − i, 1). La famille
(v1 , v2 , v3 ) est libre et comme elle est à trois éléments, elle forme une base de C3 .
En utilisant la proposition 3.1.2, on obtient :
Corollaire 3.1.2. Soit E un K-espace vectoriel de dimension finie n et B une famille formée de n
vecteurs de E. Alors les assertions suivantes sont équivalentes :
1. B est une famille libre de E.
2. B est une famille génératrice de E.
3. B est une base de E.
Remarque 3.1.1. Soit E un K-espace vectoriel et F et G deux sous-espaces vectoriels de E. Si F et G
admettent une base commune alors F = G.
Théorème 3.1.4. [Théorème de la base incomplète]
Soit E un K-espace vectoriel de dimension finie n et soit p un entier vérifiant 1 ≤ p < n. Soit
(v1 , . . . , vp ) une famille libre de E, alors il existe vp+1 , . . . , vn des éléments de E tels que la famille
(v1 , . . . , vp , vp+1 , . . . , vn ) est une base de E.
Démonstration. Soit (e1 , e2 , . . . , en ) une base de E, alors la famille B ′ = (v1 , v2 , . . . , vp , e1 , e2 , . . . , en ) est
une famille génératrice de E. Il suffit maintenant de considérer une sous famille libre de B ′ qui contient
la famille (v1 , . . . , vp ) et de cardinal maximal. C’est une base de E. ♣
Corollaire 3.1.3. Soit E un K-espace vectoriel de dimension finie et soit F un sous-espace vectoriel E.
Alors
1. Le sous-espace F admet un supplémentaire. Autrement dit, il existe un sous-espace vectoriel G de
E tel que E = F ⊕ G.
2. dim(F ) ≤ dim(E).
3. Si dim(F ) = dim(E) alors E = F .
Démonstration. 1. Soit B une base de F . La famille B est libre dans E. Par le théorème de la base
incomplète, il existe une famille libre B ′ de E telle que B∪B ′ soit une base de E. Alors G = Vect(B ′ )
est un supplémentaire de F dans G.
2. Ce point découle immédiatement du premier point.
3. Soit B une base de F . Alors B est une famille libre de E qui contient n éléments. Elle est donc
une base de E. D’où E = F .
♣
Proposition 3.1.3. Soit E un K-espace vectoriel de dimension finie et soient F et G deux sous-espaces
vectoriels de E. Si la somme F + G est directe alors
Démonstration. Soient B1 = (v1 , . . . , vp ) une base de F et B2 = (w1 , . . . , wq ) une base de G. On sait que
B = B1 ∪ B2 est une famille génératrice de F + G.
Montrons que B est libre. Soit α1 , . . . , αp , β1 , . . . , βq ∈ K tels que
α1 v1 + · · · + αp vp + β1 w1 + · · · + βq wq = 0E .
Alors
α1 v1 + · · · + αp vp = −β1 w1 − · · · − βq wq ∈ F ∩ G = {0E }.
Donc
α1 v1 + · · · + αp vp = β1 w1 + · · · + βq wq = 0E .
Comme B1 et B2 sont libres il vient
α1 = · · · = αp = β1 = · · · = βq = 0.
♣
Le résultat suivant découle directement de la proposition précédente.
Proposition 3.1.4. Soit E un K-espace vectoriel de dimension finie. Soit F et G deux sous-espaces
vectoriels de E. Alors
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
dim(F + G) = dim(F ⊕ G1 )
= dim(F ) + dim(G1 )
= dim(F ) + dim(G) − dim(F ∩ G)
Corollaire 3.1.4. Soit E un K-espace vectoriel de dimension finie et soient F et G deux sous-espaces
vectoriels de E. Alors :
v = λ(1, 1, 1) + (x1 − λ, x2 − λ, x3 − λ)
(a)
dim(F1 + · · · + Fr ) ≤ dim(F1 ) + · · · + dim(Fr ).
(b) Il y a égalité si et seulement si la somme F1 + · · · + Fr est directe.
2.
dim(E × F ) = dim(E) + dim(F ).
Démonstration. 1. Soit B1 , . . . , Br des bases respectives de F1 , . . . , Fr .
(a) La réunion B = B1 ∪ · · · ∪ Br est une famille génératrice de F1 + · · · + Fr . Ceci montre que
dim(F1 + · · · + Fr ) ≤ dim(F1 ) + · · · + dim(Fr ).
α11 α12 ··· α1n
α21 α22 ··· α2n
MatVB = .
..
.
αp1 αp2 ··· αpn
30 CHAPITRE 3. ESPACES VECTORIELS DE DIMENSION FINIE
Remarque 3.2.1. Si E = Kn est muni de sa base canonique B alors tout vecteur v ∈ E coincide avec
le vecteur de ses coordonnées dans B.
Théorème 3.2.1. Soit E un K-espace vectoriel de dimension finie n et soit B une base de E. Soit
V = (v1 , . . . , vp ) une famille de vecteurs de E. On applique la méthode de Gauss à MatVB . Alors le rang
de V est égal au nombres de lignes non nulles dans une forme échelon.
Exemple 3.2.1. Dans R5 , soit v1 = (1, 2, 1, −1, −1), v2 = (1, 1, 2, 0, 1), v3 = (0, 1, −1, −1, −2), v4 =
(1, 0, 1, −3, 1), v5 = (0, 1, 2, 5, 1)
La matrice des coordonnées des vecteurs vi est
1 2 1 −1 −1
1 1 2 0 1
0 1 −1 −1 −2 .
1 0 1 −3 1
0 1 2 5 1
Alors le nombre de lignes non nulles est 3. Donc le rang de la famille (v1 , v2 , v3 , v4 , v5 ) est 3.
Chapitre 4
Applications linéaires
f (v + w) = f ((x + x′ , y + y ′ , z + z ′ ))
= x + x′ + y + y ′ + z + z ′
= x + y + z + x′ + y ′ + z ′
= f (v) + f (w)
(b)
2. L’application f de K[X] dans K2 définie par f (P ) = (P (0), P (1)) est une application linéaire. En
effet, soit P, Q ∈ K[X] et α ∈ K. Alors
(a)
31
32 CHAPITRE 4. APPLICATIONS LINÉAIRES
(b)
∀x∈E : hλ (x) = λx
Proposition 4.1.1. Soit E et F deux K-espaces vectoriels. Une application f de E dans F est linéaire
si et seulement si
∀ α, β ∈ K ∀ v, w ∈ E f (αv + βw) = αf (v) + βf (w).
Exemples 4.1.3. 1) L’application f de K3 dans K2 définie par :
f : K3 −→ K2
(x, y, z) 7→ (x + 2y, x − z)
g : K[X] −→ K[X]
P (X) 7→ P ′ (X)
Démonstration. Existence :
Soit f l’application de E dans F définie par
n
! n
X X
∀(α1 , . . . , αn ) ∈ Kn , f αi ei = αi vi
i=1 i=1
Proposition 4.1.3. Soit E et F deux K-espaces vectoriels de dimension finies. Alors L(E, F ) est de
dimension finie et
dim (L(E, F )) = dim(E) × dim(F ).
Kerf = {v ∈ E : f (v) = 0F }.
Calculons l’image de g.
Démonstration. 1) Comme f (0E ) = 0F l’ensemble Kerf est non vide. Soit α, β ∈ K et soit v, w ∈
Kerf , montrons que αv + βw ∈ Kerf . On a f (αv + βw) = αf (v) + βf (w) car f est K-linéaire. Or
f (v) = f (w) = 0F donc f (αv + βw) = 0F . Ceci montre que αv + βw ∈ Kerf et donc Kerf est un
sous-espace vectoriel de E.
34 CHAPITRE 4. APPLICATIONS LINÉAIRES
2) L’ensemble Imf contient 0F car f (0E ) = 0F . Soit α, β ∈ K et soit v ′ , w′ ∈ Imf , montrons que
αv ′ + βw′ ∈ Imf . Il existe v, w ∈ E tels que f (v) = v ′ et f (w) = w′ . Ainsi αv ′ + βw′ =
αf (v) + βf (w) = f (αv + βw) car f est K-linéaire. D’où αv ′ + βw′ ∈ Imf . Il s’ensuit que Imf est
un sous-espace vectoriel de F . ♣
Le résultat suivant est évident.
Proposition 4.2.2. Soit E et F deux K-espaces vectoriels et soit f ∈ L(E, F ). Alors
1) f est injective si et seulement si Kerf = {0E }.
2) f est surjective si et seulement si Imf = F .
Exemples 4.2.1. 1. L’application linéaire f , de K3 dans K2 , donnée dans l’exemple 4.1.3 n’est pas
injective car Kerf ̸= {0K3 }.
2. L’application linéaire g de K[X] dans K[X], donnée dans l’exemple 4.1.3 est surjective car Img =
K[X].
Proposition 4.2.3. Soit E et F deux K-espaces vectoriels. Si B est une partie génératrice de E alors
f (B) est une famille génératrice de Imf .
Démonstration. Si B = ∅, alors E = {0} et f (B) = ∅ est une famille génératrice de Imf = {0F }.
Supposons que B ̸= ∅. Soit w ∈ Imf ; alors il existe v ∈ E tel que f (v) = w. Comme B est une famille
génératrice de E, il existe e1 , e2 , . . . , en ∈ B et α1 , . . . , αn ∈ K tels que v = α1 e1 + · · · + αn en . Ceci
implique que w = f (v) = α1 f (e1 ) + · · · αn f (en ). D’où Imf est engendré par la famille f (B). ♣
α1 f (e1 ) + · · · + αn f (en ) = 0F .
Alors
f (α1 e1 + · · · + αn en ) = f (0E ).
Comme f est injective il vient
α1 e1 + · · · + αn en 0E .
Mais (e1 , . . . , en ) est libre donc α1 = · · · = αn = 0.
Réciproquement,
Pn on considère une base B de E. Alors par hypothèse f (B) libre dans F . Soit
v = i=1 αi ei ∈ Ker(f ), avec e1 , . . . , en ∈ B. Alors
n
X
f (v) = αi f (ei ) = 0F .
i=1
Corollaire 4.2.1. Soit E et F deux espaces vectoriels de dimensions finies n et p respectivement et soit
f ∈ L(E, F ). Alors :
1. Si f est injective alors n ≤ p.
2. Si f est surjective alors n ≥ p.
f : R3 −→ R2
(x, y, z) 7→ (x − 3y, y + 2z)
et
g : R2 −→ R3
(x, y) 7→ (3y, x, 0)
g◦f : R3 −→ R3
(x, y, z) 7→ (3y + 6z, x − 3y, 0)
Proposition 4.3.1. Soit E, F et G trois K-espaces vectoriels. Soit f ∈ L(E, F ) et g ∈ L(F, G). Alors la
composée g ◦ f de g et f est une application linéaire de E dans G.
Démonstration. Soit α, β ∈ K et v, w ∈ E. On a
h ◦ (f + g) = h ◦ f + h ◦ g.
Rappelons qu’une application de E dans F est bijective s’il existe une application g de F dans E telle
que g ◦ f = idE et f ◦ g = idF où idE est l’application identité de E. L’application g s’appelle l’inverse
de f et on note g = f −1 .
36 CHAPITRE 4. APPLICATIONS LINÉAIRES
Proposition 4.3.3. Soit f une application linéaire de E dans F . Si f est bijective alors f −1 est une
application linéaire de F dans E.
Démonstration. Soit α, β ∈ K et u′ , v ′ ∈ F . On a
Alors
f −1 (αu′ + βv ′ ) = αf −1 (u′ ) + βf −1 (v ′ ).
Ceci montre que f −1 est linéaire. ♣
Définition 4.3.2. Soit E et F deux espaces vectoriels. Une application linéaire bijective de E dans
F s’appelle un isomorphisme d’espaces vectoriles de E dans F . Si E = F , un isomorphisme d’espaces
vectoriels est dit un automorphisme d’espaces vectoriels.
Deux K-espaces vectoriles sont dits isomorphes s’il existe un isomorphisme d’espaces vectoriels de E dans
F.
Exemple 4.3.2. Soit l’application f :
f : R2 [X] −→ R3
′
P 7→ (P (0), P (0), P ”(0))
f −1 : R3 −→ R3
(x , y ′ , z ′ ) 7→
′
( 21 (x − z), 1
2 (3x − 2y − z), −x + y + z)
Proposition 4.3.4. Soit E et F deux espaces vectoriels, avec E de dimension finie n. Soit (e1 , . . . , en )
une base de E et soit f ∈ L(E, F ). Alors :
1. Si f est injective alors pour toute famille de vecteurs (v1 , . . . , vr ) on a :
2. f est un isomorphisme si et seulement si la famille (f (e1 ), f (e2 ), . . . , f (en )) est une base de F .
3. E et F sont isomorphes si et seulement si E et F sont de même dimension n.
Démonstration. 1. Soit p = rg(v1 , . . . , vr ). On peut supposer que {v1 , . . . , vp } est une base de Vect(v1 , . . . , vr ).
D’une part la famille (f (v1 ), . . . , f (vp )) est libre car f est injective. D’autre part, on a pour tout
i, avec p + 1 ≤ i ≤ r, le vecteur vi appartient à Vect(v1 , . . . , vr ) ce qui implique que le vec-
teur f (vi ) appartient à Vect(f (v1 ), . . . , f (vr )). Ceci montre que (f (v1 ), . . . , f (vp )) est une base de
Vect(f (v1 ), . . . , f (vr )) et que
p = rg(v1 , . . . , vr ) = rg(f (v1 ), . . . , f (vr )).
Soit B = (e1 , e2 , e3 ) la base canonique de R3 alors V = (f (e1 ), f (e2 ), f (e3 )) engendre Imf . On va
calculer le rang de f par la méthode de Gauss. On a
f (e1 ) = (1, 1, 0), f (e2 ) = (3, 0, 3), f (e3 ) = (0, −2, 2).
Le tableau des lignes des coordonnées des vecteurs f (e1 ), f (e2 ), f (e3 ) est
1 1 0
3 0 3
0 −2 2
38 CHAPITRE 4. APPLICATIONS LINÉAIRES
Pn {f (vp+1 ), . . . , f (vn )} P
ce qui montre que la partie engnedre Im(f ).
n
Soit une combinaison i=p+1 αi f (vi ) = 0, alors i=p+1 αi vi ∈ Ker(f ) et donc
n
X p
X
αi vi = βi vi .
i=p+1 i=1
Exemples 4.5.1. 1. Dans R3 muni de sa base canonique (e1 , e2 , e3 ), le vecteur colonne des coordon-
nées du vecteur 2e1 − e2 + e3 est
2
−1 .
1
2. Dans R2 [X] muni de sa base canonique (1, X, X 2 ), le vecteur colonne des coordonnées du polynôme
3 + 2X − X 2 est
3
2 .
−1
Définition 4.5.2. Soit f ∈ L(E, F ). Soit B = (e1 , . . . , ep ) une base de E et soit B ′ une base de F .
On appelle matrice de f relativement aux bases B et B ′ , que l’on note Mat(f, B, B ′ ), la matrice de Mn,p (K),
dont la i-ème colonne est le vecteur colonne des coordonnées de f (ei ) dans B ′ , pour i = 1, . . . , p.
Si E = F , on note Mat(f, B, B) tout simplement Mat(f, B).
f : R2 −→ R3
(x, y) 7→ (x + 3y, x − y, −2x + 2y)
f : R2 [X] −→ R2 [X]
P (X) 7→ XP ′ (X)
On munit E d’une base B = (e1 , . . . , ep ) et F d’une base B ′ = (e′1 , . . . , e′n ). A une application linéaire
de E dans F correspond sa matrice qui est un élément de Mn,p (K). Inversement, soit
A = (ai,j )1≤i≤n,1≤j≤p
une matrice de Mn,p (K) ; alors elle est la matrice de l’application linéaire f ∈ L(E, F ) donnée par
n
X
f (ej ) = akj e′j 1 ≤ j ≤ p.
k=1
yn j=1
On conclut que
x1
Y = AX où X = ... est le vecteur des coordonnées de v dans B.
xp
4.5. MATRICE D’UNE APPLICATION LINÉAIRE 41
Exemple 4.5.3. Soit f l’application linéaire donnée dans l’exemple 4.5.2. La matrice de f relativement
aux bases canoniques de R2 et R3 est
1 3
A= 3 0
0 2
Proposition 4.5.1. On munit E (respectivement F ) d’une base B (respectivement d’une base B ′ ). Soit
f, g ∈ L(E, F ). Alors
1) Mat(f + g, B, B ′ ) = Mat(f, B, B ′ ) + Mat(g, B, B ′ ),
2) ∀ α ∈ K : Mat(αf, B, B ′ ) = αMat(f, B, B ′ ).
Proposition 4.5.2. Soient E et F deux espaces vectoriels munis respectivement des bases B = (e1 , . . . , ep )
et B ′ = (e′1 , . . . , e′n ). Alors
1. L’application
Pour 1 ≤ j ≤ p, on a :
♣
Exemple 4.5.4. Considérons l’application linéaire composée présentée dans l’exemple 4.3.1. La matrice
de f relativement aux bases canoniques de R3 et R2 est
1 −3 0
A=
0 1 2
Mat(g ◦ f, B) = Ip = Mat(f ◦ g, B ′ ).
Il s’ensuit que
Mat(g ◦ f, B) = Ip = Mat(f ◦ g, B ′ ).
Exemple 4.5.5. Soit l’application linéaire de R2 [X] dans R3 définie par f (P ) = (P (0), P (1), P (−1)).
On munit R2 [X] de la base B = (1, X, X 2 ) et R3 de sa base canonique B ′ = (e1 , e2 , e3 ). L’endomorphisme
f est un isomorphisme puisque rg(f ) = dim(R2 [X]) = dim(R3 ). Soit
1 0 0
A = Mat(f, B, B ′ ) = 1 1 1 ,
1 −1 1
′ ′
Proposition 4.6.1. On munit E de B et B . Soit P la matrice de passage de B à B et
deux bases
x1
..
soit v un vecteur de E. Notons X = . le vecteur colonne des coordonnées de v dans B et soit
xp
x′1
x′p
X = P X ′.
Ils sont linéairement indépendants donc libre maximale B = (v1 , v2 , v3 ) est une base de E. Soit
la famille
3
Bc la base canonique de E et soit v = 1 ∈ R3 . Déterminons les coordonnées de v dans la base B.
−4
La matrice de passage de Bc à B est
2 −8 0
P = 0 1 1 .
−1 0 −5
Cette dernière relation conduit à un système linéaire à une unique solution. On obtient donc
23
1
X′ = 5 .
2
−3
Exemple 4.6.2. Soit E = R2 [X] muni des deux bases B = (1, X, X 2 ) et B ′ = (1, X − 1, (X − 1)2 ).
Déterminons les coordonnées de Q(X) = 1 − X 2 dans B ′ . La matrice de passage de B à B ′ est
1 −1 1
P = 0 1 −2
0 0 1
X = P X ′.
4.6. CHANGEMENT DE BASES 45
On obtient donc
0
X ′ = −2 .
−1
D’où Q(X) s’exprime dans la base B ′ comme suit Q(X) = −2(X − 1) − (X − 1)2 .
(Le théorème suivant s’appelle le théorème de changement de bases. Il permet de déterminer la matrice
d’une application linéaire après un changement de bases en utilisant les matrices de passage.
Théorème 4.6.1. On munit E de deux bases B1 et B2 et F de deux bases B1′ et B2′ . Soit f une application
linéaire de E dans F de matrice A relativement aux base B1 et B1′ . Alors la matrice A′ de f relativement
B2 et B2′ est donnée par :
A′ = Q−1 AP,
où
P = PB1 ,B2 Q = PB1′ ,B2′ .
Alors
fB2 ,B2′ = idF B1′ ,B2′ ◦ fB1 ,B1′ ◦ idE B2 ,B1 ,
où fB,B′ désigne l’application linéaire f lorsqu’on munit E de la base B et F de la base B ′ .
En passant aux matrices, on obtient :
soit
A′ = Q−1 AP.
♣
Un cas important est le cas où E = F .
A′ = P −1 AP, P = PB,B′ .
Exemple 4.6.3. Soit E = R3 muni de sa base canonique Bc et soit B = (v1 , v2 , v3 ) la base de E formée
par les vecteurs v1 , v2 , v3 de l’exemple 4.6.1. Considérons l’endomorphisme f de R3 défini par :
Exemple 4.6.4. Soit E = R2 [X] muni des deux bases B = (1, X, X 2 ) et B ′ = (1, X − 1, (X − 1)2 ) et soit
f l’application linéaire donnée dans l’exemple 4.5.1. La matrice de f relativement à la base B est
0 0 0
A= 0 1 0
0 0 2
Définition 4.6.2. Deux matrices carrées d’ordre n sont semblables s’il existe une matrice carrée inversible
P d’ordre n telle que
A′ = P −1 AP
Remarque 4.6.1. Deux matrices sont semblables si elles représentent un même endomorphisme dans
deux bases différentes.
Remarque 4.6.2. Soit
p1,1 ··· p1,n
P = ... ..
··· .
pn,1 ··· pn,n
n
une matrice inversible Pnde Mn (K) (n ≥ 2) et soit Bc = (e1 , . . . , en ) la base canonique de K .n Pour
j = 1 · · · n, soit vj = i=1 pi,j ei . Comme P est inversible alors B = (v1 , . . . , vn ) est une base de K et P
est égale à la matrice de passage de Bc à B. Donc P = Mat(idE , B, Bc ) et P −1 = Mat(idE , Bc , B). Par
suite pour calculer P −1 il suffit d’écrire les éléments de Bc en fonction des éléments de B.
Exemple 4.6.5. Soit la matrice réelle inversible
1 2 −2
A= 2 2 0 .
2 −2 4
4.7. RANG ET TRACE D’UNE MATRICE, TRACE D’UN ENDOMORPHISME 47
Soit
v1 = (1, 2, 2), v2 = (2, 2, −2) et v3 = (−2, 0, 4).
La famille B = (v1 , v2 , v3 ) est une base de R3 et A coincide avec la matrice de passage de la base canonique
Bc de R3 à B. Le calcul de A−1 se ramène à l’expression des ei , i = 1, 2, 3 en fonction de v1 , v2 , v3 . On a
1 3 1 1 1
e1 = v1 − v2 − v3 , e2 = − v1 + v2 + v3 , e3 = v1 − v2 − v3 .
2 4 2 2 4
Il s’ensuit que :
1 −1/2 1/2
A−1 = −1 1 −1/2
−1 3/4 −1/4
Le rang de A est égal au rang de la famille (v1 , v2 , v3 ), avec v1 = (1, −1), v2 = (2, 1), v3 = (1, 2). En
utilisant la méthode de Gauss on obtient rg(A) = 2.
On a la proposition suivante :
Proposition 4.7.1. Soit A une matrice de Mn,p (K). Alors on a :
1. rg(A) = rg(AT ). 1
2. rg(A) ≤ min(n, p).
3. Si A est carrée (n = p) alors A est inversible si et seulement si rg(A) = n.
Proposition 4.7.2. Soient B une base de E et B ′ une base de F . Soit f ∈ L(E, F ) de matrice A
relativement à B et B ′ . Alors on a :
1. f est injective ⇐⇒ rg(A) = dim(E).
2. f est surjective ⇐⇒ rg(A) = dim(F ).
3. f est bijective ⇐⇒ rg(A) = dim(E) = dim(F ).
Définition 4.7.2. Soit A = (aij ) une matrice carrée d’ordre n. On appelle trace de A, que l’on note
tr(A) le scalaire
n
X
tr(A) = aii = a11 + · · · + ann .
i=1
1. Ce résultat sera démontré plus tard.
48 CHAPITRE 4. APPLICATIONS LINÉAIRES
Démonstration. Les deux premiers points Pnsont évidents. Montrons le troisième. Supposons A = (aij ) et
B = (bij ). Alors AB = (c
Pijn), avec c ij = k=1 aik bkj pour 1 ≤ i, j ≤ n et
BA = (dij ), avec dij = k=1 bik akj pour 1 ≤ i, j ≤ n. Donc
n
X
tr(AB) = cii
i=1
Xn n
X
= ( aik bki )
i=1 k=1
Xn X n
= aik bki
i=1 k=1
Xn X n
= ( bki aik )
k=1 i=1
Xn
= dkk
k=1
= tr(BA).
φ : R3 → R
(x, y, z) 7→ 2x − y + 3z
φ : K[X] → K
P 7→ P (0)
φ:E→R
Z b
f 7→ f (t)dt
a
Notation 4.8.1. Supposons E de dimension finie n et soit B = (e1 , e2 , . . . , en ) une base de E. Pour tout
i ∈ {1, . . . , n} on définit la forme linéaire e∗i sur E par
où
1 si i = j
δij =
0 si i ̸= j.
désigne le symbole de Kronecker.
Notons que
e∗i (x) = xi ∀x = x1 e1 + x2 e2 + · · · + xn en ∈ E
Proposition 4.8.1. Supposons E de dimension finie. Alors pour toute base B = (e1 , e2 , . . . , en ) de E, la
famille B ∗ = (e∗1 , e∗2 , . . . , e∗n ) est une base de E ∗ , appelée base duale de B.
P (j) (0)
e∗j (P ) = aj = , j = 0, 1, . . . , n
j!
u : E → Kn
x 7→ (φ1 (x), . . . , φn (x))
Le deuxième point de la proposition précédente montre que u est injective, donc c’est un isomorphisme
de E dans Kn . Soit (e1 , . . . , en ) la base canonique de Kn et bi = u−1 (ei ) pour i = 1, . . . , n. Puisque u est
un isomorphisme la famille B = (b1 , b2 , . . . , bn ) est une base de E. De plus
Donc
φi (bj ) = δij .
Ceci montre que D est la base duale de B.
L’unicité de la base (b1 , . . . , bn ) est évidente.
4.8. FORMES LINÉAIRES, DUALITÉ 51
Proposition 4.8.4. Soit B1 , B2 deux bases de E et B1∗ , B2∗ leurs bases duales respectives. Alors
Démonstration. Posons
B1 = (e1 , . . . , en ), B2 = (b1 , . . . , bn )
et soit
A = (aij ) = MatB1 B2 , B = (bij ) = MatB1∗ B2∗ .
Pn Pn
On a bj = k=1 akj ek et b∗i = ℓ=1 bℓi e∗ℓ . Par définition de la base duale, on a
Remarque 4.8.1. Les b∗i ont pour composantes celles des vecteurs lignes de A−1 .
Exemples 4.8.2. Soit B1 = (e1 , e2 , e3 ) la base canonique de R3 et soit B1∗ = (e∗1 , e∗2 , e∗3 ) sa base
duale.
1. Soit B2 une autre base de R3 , avec
On a
1 −2 1
A = MatB1 B2 = 1 −2 2
0 −1 1
En utilisant la proposition précédente, la matrice de passage de la base duale B1∗ à la base duale
B2∗ est donnée par :
0 −1 −1
B = MatB1∗ B2∗ = t A−1 = 1 1 1
−2 −1 0
Ainsi la base duale de B2 est formée par les trois vecteurs b1 , b2 , b3 :
b∗1 = e∗2 − 2e∗3 , b∗2 = −e∗1 + e∗2 − e∗3 , b∗3 = −e∗1 + e∗2 .
La famille D = (φ1 , φ2 , φ3 ) est libre dans (R3 )∗ et donc c’est une base de (R3 )∗ . Nous allons
déterminer la base antéduale de D.
On a
1 1 0
B = MatB1∗ D = 1 −1 1
1 1 1
D’après la proposition précédente, la matrice de passage de la base canonique B1 à la base antéduale
de D est
2 0 −2
1
A = t B −1 = 1 −1 0
2
−1 1 2
Alors la base antéduale de D est la base (v1 , v2 , v3 ), avec
1 1 1
v1 = (2e1 + e2 − e3 ), v2 = (−e2 + e3 ), v3 = (−2e1 + 2e3 ).
2 2 2
Chapitre 5
Déterminants
∀ x1 , . . . , xn ∈ E, ∀ i ∈ {1, . . . , n},
— antisymétrique : lorsque
— alternée : lorsque
53
54 CHAPITRE 5. DÉTERMINANTS
En développant par rapport à la i-ème variable puis par rapport à la j-ème variable, on obtient :
f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn )+ f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn )
+ f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn )
+ f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn )
=0
Il s’ensuit que
f (x1 , . . . , xi−1 , xj , xi+1 , . . . , xj−1 , xi , xj+1 , . . . , xn ) = −f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn )
= ϵ(τ )f (x1 , . . . , xi−1 , xi , xi+1 , . . . , xj−1 , xj , xj+1 , . . . , xn )
Puis on développe chacun de ces termes par rapport à la deuxième variable x2 , il vient
X
f (x1 , . . . , xn ) = aj1 ,1 aj2 ,2 f (ej1 , ej2 , x3 , . . . , xn )
1≤j1 ,j2 ≤p
5.2. DÉTERMINANT DANS UNE BASE 55
Cette dernière forme s’appelle le développement de f (x1 , . . . , xn ) dans la base B. On voit qu’une appli-
cation n-linéaire est entièrement déterminée par la donnée des vecteurs de F :
f (ej1 , ej2 , . . . , ejn ), 1 ≤ j1 , j2 , . . . , jn ≤ p.
Il s’ensuit que
!
X
∀ x1 , x2 , . . . , xn ∈ E, f (x1 , . . . , xn ) = α ϵ(σ)aσ(1),1 aσ(2),2 · · · aσ(n),n
σ∈Sn
X
= α ϵ(σ)a1,σ−1 (1) a2,σ−1 (2) · · · an,σ−1 (n)
σ −1 ∈Sn
!
X
=α ϵ(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) ,
σ∈Sn
avec α = f (e1 , . . . , en ).
Proposition 5.2.1. Soient B = (e1 , . . . , en ) une base de E et B ∗ = (e∗1 , e∗2 , . . . , e∗n ) sa base duale. Alors :
1. L’application f : E n → K définie par f (x1 , . . . , xn ) = e∗1 (x1 )e∗2 (x2 ) · · · e∗n (xn ) est une forme n-
linéaire sur E.
2. L’application g : E n → K définie par g(x1 , . . . , xn ) = σ∈Sn ϵ(σ)f (xσ(1) , xσ(2) , . . . , xσ(n) ) est une
P
forme n-linéaire alternée sur E.
Pn
3. Pour j = 1, . . . , n, posons xj = i=1 aij ei , alors
X
g(x1 , . . . , xn ) = ϵ(σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn
56 CHAPITRE 5. DÉTERMINANTS
4. g(e1 , . . . , en ) = 1.
Démonstration. 1. f est un produit de n formes linéaires sur E, donc c’est une forme n-linéaire sur
E.
2. Il est évident que g est n-linéaire. Montrons qu’elle est alternée. Soit τ une transposition de Sn .
Alors :
X
g(xτ (1) , xτ (2) , . . . , xτ (n) ) = ϵ(σ)f (xσ(τ (1)) , xσ(τ (2)) , . . . , xσ(τ (n)) )
σ∈Sn
X
= ϵ(σ)f (xσ′ (1) , xσ′ (2) , . . . , xσ′ (n) ) (σ ′ = σ ◦ τ )
σ ′ ∈Sn
X
=− ϵ(σ ′ )f (xσ′ (1) , xσ′ (2) , . . . , xσ′ (n) )
σ ′ ∈Sn
= −g(x1 , . . . , xn )
3. On a
X
g(x1 , . . . , xn ) = ϵ(σ)f (xσ(1) , xσ(2) , . . . , xσ(n) )
σ∈Sn
X
= ϵ(σ)e∗1 (xσ(1) )e∗2 (xσ(2) ) · · · e∗n (xσ(n) )
σ∈Sn
X
= ϵ(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ∈Sn
Pn
4. On a pour j = 1, . . . , n, ej = i=1 aij ei , avec aij = δij . Soit σ ∈ Sn , si σ ̸= id, alors il existe
i ∈ {1, . . . , n} tel que i ̸= σ(i). Donc f (eσ(1) , eσ(2) , . . . , eσ(n) ) = 0. Il s’ensuit que
♣
En combinant cette proposition et la discussion qui lui précède on obtient le résultat suivant :
Théorème 5.2.1. Si E est de dimension n, alors l’ensemble des formes n-linéaires alternées sur E à
valeurs dans K est un K-espace vectoriel de dimension 1 engendré par la forme n-linéaire g.
Définition 5.2.2. La forme n-linéaire alternée g s’appelle le déterminant dans la base B. On la note
detB .
Remarque 5.2.1. La forme n-linéaire detB est l’unique forme n-linéaire alternée sur E qui prend la
valeur 1 en (e1 , . . . , en ).
Soit B = (e1 , . . . , en ) une base de E et soient x1 , . . . , xn des vecteurs de E. Rappelons que la matrice
de la famille (x1 , . . . , xn ) dans la base B est la matrice carrée d’ordre n dont les colonnes sont les colonnes
des coordonnées des vecteurs xj , 1 ≤ j ≤ n dans la base B. Notons (ai,j ) cette matrice. Alors :
X
detB (x1 , . . . , xn ) = ϵ(σ)a1,σ(1) a2,σ(2) · · · an,σ(n) .
σ∈Sn
5.3. DÉTERMINANT D’UN ENDOMORPHISME 57
Exemples 5.2.1. 1. Cas dim(E) = 2 : Soit B = (e1 , e2 ) une base de E et soient u = a11 e1 + a12 e2
et v = a21 e1 + a22 e2 deux vecteurs de E. On a S2 = {Id, (12)}. Alors
X
detB (u, v) = ϵ(σ)a1σ(1) a2σ(2) = a1,1 a2,2 − a12 a21 .
σ∈S2
1. Cas dim(E) = 3 : Soit B = (e1 , e2 , e3 ) une base de E et soient u = a11 e1 +a21 e2 +a31 e3 , v = a12 e1 +
a22 e2 +a32 e3 et w = a13 e1 +a23 e2 +a33 e3 trois vecteurs de E. On a S3 = {Id, (123), (132), (12), (13), (23)}.
Alors
X
detB (u, v, w) = ϵ(σ)a1σ(1) a2σ(2) a3σ(3)
σ∈S3
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a11 a23 a32 − a12 a21 a33 − a13 a22 a31 .
Démonstration. 1. L’application detB′ est une forme n-linéaire alternée sur E, donc il existe α =
detB′ (e1 , . . . , en ) tel que detB′ = αdetB . Ceci prouve le résultat.
2. Supposons B ′ = (x1 , . . . , xn ) une base de E. D’après le premier point on a :
Mais detB est non identiquement nulle, donc detB (B ′ ) est non nul.
Pour la réciproque on va procéder par contraposée. Supposons que la famille B ′ est liée, alors l’un
des vecteurs x1 , . . . , xn est une combinaison linéaire des autres. Puisque la forme detB est alternée
on aura detB (B ′ ) = 0.
♣
On a le résultat suivant :
Alors
♣
Ceci nous conduit à la définition suivante :
Définition 5.3.1. Soient B = (e1 , . . . , en ) une base de E et u ∈ L(E). On appelle déterminant de u, que
l’on note det(u), le scalaire detB (u(e1 ), . . . , u(en )).
Remarque 5.3.1. Le déterminant d’un endomorphisme est indépendant de la base choisie de E.
Exemple 5.3.1. Soit f l’endomorphisme de R2 [X] donné par ∀ P ∈ R2 [X] : f (P ) = XP ′ . On munit
R2 [X] de la base canonique B = (1, X, X 2 ). On a f (1) = 0, f (X) = X, f (X 2 ) = 2X 2 , donc la matrice
des coordonnées de la famille (f (1), f (X), f (X 2 )) dans la base B est
0 0 0
A= 0 1 0
0 0 2
Alors det(f) = 0.
Soient B = (e1 , . . . , en ) une base de E et u ∈ L(E). Posons A = (aij ) = MatB (u), alors A est la
matrice de la famille (u(e1 ), . . . , u(en )) dans la base B. Ceci permet d’avoir l’expression du déterminant :
X
det(u) = ϵ(σ)a1σ(1) a2σ(2) · · · anσ(n) .
σ∈Sn
Proposition 5.3.2. Soient B = (e1 , . . . , en ) une base de E et u, v ∈ L(E). Alors on a les propriétés
suivantes :
1.
∀ x1 , . . . , xn ∈ E, detB (u(x1 ), u(x2 ), . . . , u(xn )) = det(u)detB (x1 , x2 , . . . , xn ).
2. det(u ◦ v) = det(u)det(v).
3. u est un automorphisme de E si, et seulement si det(u) ̸= 0. Dans ce cas, on a det(u−1 ) = 1
det(u) .
Démonstration. 1. On sait que la forme n-linéaire alternée f définie par f (x1 , . . . , xn ) = detB (u(x1 ), u(x2 ), . . . , u(xn ))
vérifie f = αdetB , avec
α = f (e1 , . . . , en )
= detB (u(e1 ), u(e2 ), . . . , u(en ))
= det(u).
D’où le résultat.
2. On a
D’où det(u) ̸= 0. Réciproquement, si det(u) ̸= 0, alors (u(e1 ), . . . , u(en )) est une base de E et u
est un automorphisme de E.
♣
Démonstration. Les points 3., 4. et 5. découlent directement de la proposition 5.3.2. Montrons les deux
premiers points.
1 Soit σ une permutation distincte de l’identité. Alors il existe j ∈ {1, . . . , n} tel que j > σ(j). Donc
ajσ(j) = 0. Il s’ensuit que a1,σ(1) a2,σ(2) · · · an,σ(n) ̸= 0 ⇐⇒ σ = id. D’où le résultat.
2. On a
X
det(A) = ϵ(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ∈Sn
X
= ϵ(σ)aσ(1)1 aσ(2)2 · · · aσ(n)n
σ∈Sn
= det(AT ).
♣
60 CHAPITRE 5. DÉTERMINANTS
Remarque 5.4.1. Si A = (aij ) est triangulaire inférieure alors AT est triangulaire supérieure. Il s’ensuit
que det(A) = det(AT ) = a11 a22 · · · ann .
Kn . Si A = (aij ) ∈ Mn (K) on note C1 , C2 , . . . , Cn les
Soit B = (e1 , . . . , en ) la base canonique de P
n
colonnes de A. Pour j = 1, . . . , n, on écrit Cj = i=1 aij ei . Comme le déterminant est n-linéaire on a :
n
X n
X
det(A) = aij detB (C1 , . . . , Cj−1 , ei , Cj+1 , . . . , Cn ) = aij Fij (A),
i=1 i=1
Pour amener la j-ème colonne en dernière position, on échange successivement les colonnes Cj et Cj+1
puis Cj+1 et Cj+2 , ... etc. Comme on a fait n − j échanges, le déterminant est multiplié par (−1)n−j .
De la même manière, on amène la i-ème ligne en dernière position et le déterminant est multiplié par
(−1)n−i . Il s’ensuit que Fij (A) = (−1)i+j det(B), où
a1,1 ··· a1,j−1 a1,j+1 ··· a1,n 0
.. .. .. .. .. ..
. . . . . . 0
ai−1,1
··· ai−1,j−1 ai−1,j+1 ··· ai−1,n 0
ai+1,1
B = (bi,j ) = ··· ai+1,j−1 ai+1,j+1 ··· ai+1,n 0
.. .. .. .. .. ..
. . . . . . 0
an,1 ··· an,j−1 an,j+1 ··· an,n 0
ai,1 ··· ai,j−1 ai,j+1 ··· ai,n 1
Polynômes d’endomorphismes
Dans tout ce chapitre K désigne un corps commutatif et E est un espace vectoriel sur K de dimension
finie.
P (A) = a0 In + a1 A + · · · + ar Ar
Pour cela on doit calculer f 2 . On a f 2 (e1 ) = f (e1 + e2 ) = 2e1 et f 2 (e2 ) = f (e1 − e2 ) = 2e2 . Donc
P (f ) = 2IdR2 − f + f 2 est donné par :
P (f )(e1 ) = 2e1 − f (e1 ) + f 2 (e1 ) = 3e1 − e2 P (f )(e2 ) = 2e2 − f (e2 ) + f 2 (e2 ) = −e1 + 5e2 .
63
64 CHAPITRE 6. POLYNÔMES D’ENDOMORPHISMES
et
3 2 3
B3 = 2 3 3 .
3 3 2
Donc
0 0 2
P (B) = I3 − 2B 2 + B 3 = 0 0 2 .
2 2 −1
On a la proposition suivante :
Proposition 6.1.1. Soient P et Q deux polynômes. Alors :
1. (P + Q)(u) = P (u) + Q(u) et (P Q)(u) = P (u) ◦ Q(u) = Q(u) ◦ P (u).
2. (P + Q)(A) = P (A) + Q(A) et (P Q)(A) = P (A)Q(A) = Q(A)P (A).
3. Relativement à une base de E, on a Mat(P (u)) = P (Mat(u)).
4. Si v est un isomorphisme de E, on a P (v −1 ◦ u ◦ v) = v −1 ◦ P (u) ◦ v.
5. P (tA) = tP (A).
6. Lorsque K = C, on a P (A) = P (A).
Pr Ps
Démonstration. Supposons que P = k=0 ak X k et Q = j=0 bj X j .
1. La relation (P + Q)(u) = P (u) + Q(u) découle directement de la définition.
Pr PMontrons que
s
(P Q)(u) = P (u) ◦ Q(u) = Q(u) ◦ P (u). On a (P Q)(X) = P (X)Q(X) = k=0 j=0 ak bj X k+j .
Donc Pr Ps
(P Q)(u) = uk+j
j=0 ak bjP
Pk=0
r s
k
= ( k=0 ak u ) ◦ ( j=0 bj uj )
Ps Pr
j
= ( j=0 bj u ) ◦ ( k=0 ak uk )
= Q(u) ◦ P (u) = P (u) ◦ Q(u)
2. Ce point se montre comme précédement.
3. Les relations Mat(v + w) = Mat(v) + Mat(w) et Mat(v ◦ w) = Mat(v)Mat(w) pour deux endomor-
phismes v, w ∈ L(E) permettent de conclure.
4. Si X k est un monôme, alors par simple récurrence, on a (v −1 ◦ u ◦ v)k = v −1 ◦ uk ◦ v. Le résultat
pour un polynôme s’en déduit facilement.
5. Ce point découle des deux résultats t(A + B) = tA + tB et t(Ak ) = (tA)k pour toutes matrices A et
B et tout entier positif k.
6. Ce point découle des deux résultats (A + B) = A + B et Ak = (A)k . ♣
Remarque 6.1.1. Les deux premiers points de la dernière proposition montrent que l’application
φ : K[X] → L(E)
P 7→ P (u)
Définition 6.2.1. On appelle idéal annulateur de u l’idéal des polynômes annulateurs de u. L’unique
polynôme unitaire qui engendre cet idéal, que l’on note Mu , s’appelle le polynôme minimal de u.
De même un polynôme P ∈ K[X] est un polynôme annulateur d’une matrice A ∈ Mn (K) si la matrice
P (A) est nulle. L’ensemble de tous les polynômes annulateurs de A est un idéal de K[X] non réduit à
(0), engendré par un unique polynôme unitaire que l’on note MA et que l’on appelle polynôme minimal
de A.
Remarque 6.2.1. Le polynôme minimal Mu de u est l’unique polynôme non nul et unitaire caractérisé
par les deux propriétés suivantes :
1. Mu est unitaire,
2. ∀P ∈ K[X], Mu /P ⇐⇒ P (u) = 0.
La proposition suivante montre que le polynôme minimal de u ne dépend pas de la base dans laquelle
il est représenté.
Proposition 6.2.2. Si A est la matrice de u dans une base B de E, le polynôme minimal de A est égal
à celui de u.
Démonstration. La relation MatB P (u) = P (A) montre que u et A ont le même idéal annulateur. Ils ont
donc le même polynôme minimal. ♣
La proposition suivante relie le polynôme minimal de u à celui d’un endomorphisme induit par u sur
un sous-espace stable par u.
Proposition 6.2.3. Soit F un sous-espace vectoriel de E stable par u. Le polynôme minimal de uF divise
celui de u.
Démonstration. La relation P (uF ) = P (u)F pour tout P ∈ K[X], montre que l’idéal annulateur de u est
contenu dans celui de uF . Il s’ensuit que Mu (uF ) = 0 et que MuF divise Mu . ♣
1. Calculer MJ (X).
2. Calculer J k pour tout k ∈ N.
Démonstration. Il est claire que Ker((Pi (u)) ⊂ Ker(P (u)) pour tout i ∈ {1, . . . , r}. Donc
1 = A1 Q1 + · · · + Ar Qr .
Il s’ensuit que
∀x ∈ Ker(P (u)), x = (A1 Q1 )(u)(x) + · · · + (Ar Qr )(u)(x).
Puisque pour tout i dans {1, . . . , r}, Pi (u)((Ai Qi )(u)(x)) = (Ai Pi Qi (u))(x) = Ai (u) ◦ P (u)(x) = 0, on
obtient x ∈ Ker(P1 (u)) + · · · + Ker((Pr (u)).
Il reste à montrer que la somme Ker(P1 (u)) + · · · + Ker((Pr (u)) est directe. Soit k ∈ {2, . . . , r} et soit
x ∈ Ker(Pk (u)) ∩ ((Ker(P1 (u)) + · · · + Ker((Pk−1 (u))). On a alors x = x1 + · · · + xk−1 avec Pk (u)(x) = 0
et Pi (u)(xi ) = 0 pour i dans {1, . . . , k − 1}. Puisque les Pi sont premiers entre eux deux à deux, les deux
polynômes Pk et P1 · · · Pk−1 sont premiers entre eux. Il existe alors deux polynômes A et B tels que
Donc
x = (Ak Pk )(u)(x) + (BP1 · · · Pk−1 )(u)(x)
Pk−1
= Ak (u) ◦ Pk (u)(x) + i=0 (BP1 · · · Pk−1 )(u)(xi )
= 0.
D’où la somme est directe et on a :
♣
Remarques 6.3.1. 1. On peut montrer le lemme des noyaux par récurrence sur le nombre de poly-
nômes Pi .
2. Le lemme des noyaux reste vrai pour les espaces vectoriels de dimension infinie.
Corollaire 6.3.1. Soit P1 , . . . , Pr des polynômes de K[X] premiers entre eux deux à deux et soit P =
P1 · · · Pr . Si P est un polynôme annulateur de u alors on a :
Corollaire 6.3.2. Soit P1 , . . . , Pr des polynômes de K[X] premiers entre eux deux à deux et soit P =
P1 · · · Pr . Si P estPun polynôme annulateur de u alors pour tout i ∈ {1, . . . , r}, la projection sur Ker(Pi (u))
paralléllement à k̸=i Ker(Pk (u)) est un polynômle en u.
Démonstration. On reprend les notations de la démonstration du dernier théorème. Puisque
on a
∀x ∈ E, x = (A1 Q1 )(u)(x) + · · · + (Ar Qr )(u)(x),
P (Ai Qi )(u)(x) ∈ Ker(Pi (u)) pour i ∈ {1, . . . , r}. Si πi est la projection sur Ker(Pi (u)) paralléllement
avec
à k̸=i Ker(Pk (u)), alors πi (x) = (Ai Qi )(u)(x) pour tout x ∈ E. D’où πi = (Ai Qi )(u) est un polynôme
en u. ♣
Exemples 6.3.1. 1. Soit F et G deux sous-espaces supplémentaires de E. Soit p la projection sur
F paralléllement à G. Nous avons vu que Mp (X) = X 2 − X = X(X − 1). En appliquant le lemme
des noyaux, on obtient :
4. Soit à résoudre l’équation différentielle linéaire y” + y = 0. On cherche les solutions dans C ∞ (R, C)
l’espaces des fonctions de classe C ∞ de R dans C.
En considérant l’endomorphisme
D : C ∞ (R, C) → C ∞ (R, C)
f 7→ f′
X 2 + 1 = (X − i)(X + i).
Le lemme des noyaux permet d’obtenir l’ensemble des solutions Ker(P (D)) :
Réduction d’endomorphismes
diagonalisables
Les notions que nous développons dans ce chapitre pour les endomorphismes s’appliquent d’une ma-
nière naturelle aux matrices en considérant les endomorphismes canoniquement associés.
On rappelle que K désigne un corps commutatif, E est un espace vectoriel sur K de dimension finie et u
est un endomorphisme de E.
Remarque 7.1.1. Un scalaire λ est une valeur propre de u si et seulement si l’endomorphisme u − λIdE
n’est pas injectif, ce qui revient au même, si et seulement si u − λIdE n’est pas bijectif. En partculier, le
scalaire 0 est une valeur propre de tout endomorphisme non injectif.
Exemples 7.1.1. 1. Soit l’endomorphisme f de R3 [X] donné par f (P ) = P ′ . Pour toute constante
c ∈ R, on a u(c) = c′ = 0. Donc 0 est une valeur propre de f et toute constante non nulle en est
un vecteur propre associé à la valeur propre 0.
2. Soient F et G deux sous espaces non nuls de E tels que E = F ⊕ G. Soit p la projection sur F
paralléllement à G. On a ∀x ∈ F, p(x) = x, donc 1 est une valeur propre de p et tout vecteur non
nul de F en est un vecteur propore associé.
3. On munit C3 de sa base canonique (e1 , e2 , e3 ) et on considère la matrice de M3 (C) :
i 1 0
A = −i i 0 .
−i i i
Si uA est l’endomorphisme canoniquement associé à A, alors uA (e3 ) = ie3 . Donc i est une valeur
propre de A et e3 en est un vecteur propre associé.
Définition 7.1.2. On appelle sous-espace propre de u associé à la valeur propre λ, le sous-espace vectoriel
de E :
Eλ (u) = Ker(u − λIdE ).
71
72 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES
Lorsqu’il n’y a pas de confusion, on note Eλ (u) seulement Eλ . Un vecteur non nul x ne peut pas être
un vecteur propre associé à deux valeurs propres distinctes. Autrement dit, si λ et µ sont deux valeurs
propres distinctes alors Eλ ∩ Eµ = {0}.
Le résultat suivant montre que deux endomorphismes conjugués, donc deux matrices semblables, ont les
mêmes valeurs propres :
Proposition 7.1.1. Pour tout isomorphisme v de E, les endomorphismes v −1 ◦ u ◦ v et u ont les mêmes
valeurs propres.
Démonstration. Soit λ une valeur propre de u et soit x un vecteur propre associé. La relation v −1 ◦ u ◦
v(v −1 (x)) = λv −1 (x) montre que λ est une valeur propre de v −1 ◦ u ◦ v puisque v −1 (x) est un vecteur
non nul. La réciproque est évidente. ♣
Remarque 7.1.2. On vient de montrer que si x est un vecteur propre de u, alors v −1 (x) est un vecteur
propre de v −1 ◦ u ◦ v. Les sous espaces propres de u et de v −1 ◦ u ◦ v sont liés par la relation suivante :
Définition 7.1.3. On appelle spectre de u, et l’on note Sp(u), l’ensemble des valeurs propres de u.
La proposition suivante relie les valeurs propres de u et les polynômes annulateurs de u.
Proposition 7.1.2. 1. Soit x un vecteur propre de u associé à une valeur propre λ, alors pour tout
polynôme P , on a :
P (u)(x) = P (λ)x.
C’est à dire, P (λ) est une valeur propre de P (u).
2. Si P est un polynôme annulateur de u, on a P (λ) = 0 pour toute valeur propre λ de u.
Pr
Démonstration. 1. Soit P = k=0 ak X k ∈ K[X]. Pour tout k ∈ N, on a uk (x) = λk x. Donc
Pr
P (u)(x) = (P k=0 ak uk )(x)
r
= Pk=0 ak uk (x)
r
= Pk=0 ak λk x
r
= ( k=0 ak λk )x
= P (λ)x.
2. La relation P (u)(x) = P (λ)x montre que P (λ)x = 0 et comme x est non nul, il vient P (λ) = 0.
♣
Le théorème suivant donne une caractérisation des valeurs propres de u.
Théorème 7.1.1. Les valeurs propres de u sont les racines dans K de son polynôme minimal.
Démonstration. Soit Mu le polynôme minimal de u. La proposition précédente montre que toute valeur
propre de u est une racine de Mu . Montrons la réciproque. Supposons que λ ∈ K est une racine de Mu
sans qu’elle soit une valeur propre de u. Le polynôme Mu s’écrit alors Mu = (X − λ)N avec N ∈ K[X].
Evaluons les deux membres de l’équation en u, on obtient
Comme λ n’est pas une valeur propre de u, l’endomorphisme u − λIdE est inversible. Il s’ensuit que
N (u) = 0, ce qui contredit la minimalité de Mu . ♣
Exemples 7.1.2. 1. Puisque le polynôme minimal d’un projecteur est X 2 − X, alors les valeurs
propres d’un projecteur sont 0 et 1.
7.2. POLYNÔME CARACTÉRISTIQUE 73
1 2
2. Soit A = . On a MA (X) = (X − 1)(X − 5), donc les valeurs propres de A sont 1 et 5.
0 5
3. Soit u un endomorphisme nilpotent d’indice de nilpotence r. Le polynôme minimal de u est X r ,
donc Sp(u) = {0}. On remarque alors que deux endomorphismes peuvent avoir le même spectre
sans être conjugués.
Le résultat suivant sera très utile dans la suite :
Proposition 7.1.3. Soit λ une valeur propre de u, alors Eλ est stable par tout endomorphisme qui
commute avec u.
Démonstration. Il suffit de remarquer que les polynômes X − λk pour k ∈ {1, . . . , p} sont premiers entre
eux deux à deux puis appliquer le lemme des noyaux pour conclure. ♣
Corollaire 7.1.1. La réunion de familles de vecteurs propres associés à des valeurs propres distinctes
deux à deux est libre.
Corollaire 7.1.2. Le nombre de valeurs propres de u est inférieur ou égal à la dimension de E.
Remarques 7.1.1. 1. Un endomorphisme nilpotent admet une seule valeur propre qui est le scalaire
0.
2. Une matrice diagonale de Mn (K) à éléments diagonaux distincts deux à deux admet n valeurs
propres disctinctes deux à deux.
χA (X) = (X − a11 )(X n−1 − (a22 + · · · + ann )X n−2 + · · · + (−1)n−1 detA11 ) + Q(X)
= X n − (a11 + a22 + · · · + ann )X n−1 + Q′ (X)
74 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES
où Q′ (X) est un polynôme de dgré inférieur ou égal à n−2. Donc les termes de degrés n et n−1 sont X n et
−tr(A)X n−1 . On obtient le terme constant de χA (X) en l’évaluant à 0 : χA (0) = det(−A) = (−1)n det(A).
♣
Définition 7.2.1. Soit A ∈ Mn (K). Le polynôme det(XIn −A), que l’on note χA (X), s’appelle le polynôme
caractéristique de A.
Remarque 7.2.1. Certains auteurs définissent le polynôme caractéristique d’une matrice A comme étant
le déterminant de la matrice A − XIn . On note que les deux polynômes ont les mêmes racines puisque
det(XIn − A) = (−1)n det(A − XIn ) et par conséquent, ils réalisent les mêmes propriétés concernant la
matrice A.
1 −2 −1
A= 3 −1 −4 .
0 −5 3
χA (X) = det(XI3 − A)
X −1 2 1
= −3 X +1 4
0 5 X −3
X +2 2 1
= X +2 X +1 4
X +2 5 X −3
1 2 1
= (X + 2) 1 X +1 4
1 5 X −3
1 2 1
= (X + 2) 0 X −1 3
0 3 X −4
= (X + 2)(X 2 − 5X − 5).
i 0 1 −i
1 0 −i i
B= .
0 1 i −i
−i i 0 1
7.2. POLYNÔME CARACTÉRISTIQUE 75
χB (X) = det(XI4 − B)
X −i 0 −1 i
−1 X i −i
=
0 −1 X − i i
i −i 0 X −1
X −1 0 −1 i
X −1 X i −i
=
X − 1 −1 X − i i
X − 1 −i 0 X −1
1 0 −1 i
1 X i −i
= (X − 1)
1 −1 X − i i
1 −i 0 X −1
1 0 −1 i
0 X i+1 −2i
= (X − 1)
0 −1 X −i+1 0
0 −i 1 X −i−1
X i+1 −2i
= (X − 1) −1 X −i+1 0
−i 1 X −i−1
donne le résultat. ♣
On peut maintenant définir le polynôme caractéristique d’un endomorphisme.
Définition 7.2.2. Le polynôme caractéristique de u, que l’on note χu (X), est le polynôme caractéristique
de toute matrice représentant u.
Le théorème suivant donne un outil pratique pour le calcul des valeurs propres.
76 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES
Théorème 7.2.1. Un scalaire λ ∈ K est une valeur propre de u si et seulement si c’est une racine de
χu (X).
Démonstration. Le scalire λ est une valeur propre de u si et seulement si u − λIdE n’est pas inversible,
ce qui revient au même, si et seulement si χu (λ) = det(u − λIdE ) = 0. ♣
Exemples 7.2.2. 1. Les valeurs propres d’une matrice triangulaire T sont les éléments diagonaux
de T .
2. Soit A la matrice de M3 (R) :
1 1 1
A = −1 −2 −1 .
−1 1 −1
Le polynôme caractéristique de A est χA (X) = X(X 2 + 2X + 2). La matrice A admet une valeur
propre réelle, 0, et deux valeurs propres cpmplexes conjuguées −1 + i et −1 − i.
XIp − A −B
= det(XIp − A)det(XIn−p − D).
0 XIn−p − D
Définition 7.2.3. On appelle multiplicité d’une valeur propre λ de u, et l’on note m(λ), sa multiplicité
en tant que racine du polynôme caractéristique de u.
Démonstration. Soit n(λ) la dimension de Eλ . Il est clair que 1 ≤ n(λ). L’endomorphisme u1 induit par
u sur Eλ coincide avec l’homothétie λIdEλ . Son polynôme caractéristique vaut (X − λ)n(λ) . Comme il
divise χu (X) on obtient l’autre inégalité n(λ) ≤ m(λ). ♣
Remarque 7.2.2. Si λ est une valeur propre de multiplicité 1, alors le sous espace propre Eλ est de
dimension 1.
Remarque 7.2.3. Le théorème de Cayley-Hamilton peut se démontrer d’une autre manière. On le prouve,
en premier, pour les endomorphismes scindés, puis on le généralise au cas général en admettant que tout
corps admet une clôture algébrique.
Exemples 7.2.3. 1. Soit f l’endomorphisme donné dans l’exemple 7.2.1. On a χf (X) = X 3 − 3X,
donc l’endomorphisme χf (f ) = f 3 − 3f est identiquement nul.
2. Soit la matrice
2 −1 −1
A= 1 0 −1 .
−1 1 2
D’où
χA (A) = A3 − 4A2 + 5A − 2I3 = 0.
Corollaire 7.2.3. Le polynôme minimal Mu de u divise son polynôme caractéristique χu . De plus, ils
ont les mêmes facteurs irréductibles.
−1
A−1 = (a1 In + · · · + an−1 An−2 + An−1 ).
a0
Démonstration. C’est une conséquence de la proposition 7.2.1. En effet, la relation a0 = (−1)n det(A)
permet de voir que A est inversible si, et seulement si, a0 ̸= 0.
Si a0 ̸= 0, alors la relation
a0 In + a1 A + · · · + an−1 An−1 + An = 0
implique
a0 In = −A(a1 In + · · · + an−1 An−2 + An−1 ).
D’où
−1
A−1 = (a1 In + · · · + an−1 An−2 + An−1 ).
a0
♣
χA (X) = X 3 − 4X 2 + 5X − 2.
A3 − 4 A2 + 5 A − 2 I3 = 0.
permet d’obtenir
1 1 1
1 2 1
A−1 = (A − 4 A + 5 I3 ) = −1 3 1 .
2 2
1 −1 1
Calcul des puissances successives d’une matrice Soit A ∈ Mn (K) et soit k ∈ N∗ . On suppose que
A admet toutes ses valeurs propres dans K et notre but est de déterminer la puissance k ième de A.
La division euclidienne de X k par χA (X) donne lieu à une relation de la forme
où Q(X) ∈ R[X] et ak , bk , ck ∈ R.
En attribuant à X les valeurs 0, −1 et 2 on obtient
1 k−1 1 k−1
+ (−1)k , bk = + 2 (−1)k−1 et ck = 0.
ak = 2 2
3 3
En outre, la relation
X k = χA (X) Q(X) + (ak X 2 + bk X + ck )
entraîne que
Ak = χA (A) Q(A) + (ak A2 + bk A + ck I3 ).
Comme χA (A) = 0, d’après le théorème de Cayley-Hamilton, on a
k−1
2 + (−1)k 2k−1 + 2(−1)k−1 2k−1 + (−1)k
Ak = ak A2 + bk A + ck I3 = 13 2k + (−1)k−1 2k + 2(−1)k 2k + (−1)k−1 .
où Q(X) ∈ R[X] et ak , bk , ck ∈ R.
Dans l’équation 7.1, on attribue à X les valeurs 1 et −2. On obtient deux équations linéaires en ak , bk
et ck . En dérivant la même équation et en attribuant à X la valeur −2, on obtient une autre équation
linéaire en ak , bk et ck . Ceci conduit au système linéaire :
ak + bk + ck = 1
4ak − 2bk + ck = (−2)k
−4ak + bk = (−2)k−1 k
80 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES
B k = χB (B) Q(B) + ak B 2 + bk B + ck I3 .
B k = ak B 2 + bk B + ck I3 .
Définition 7.2.4. L’endomorphisme u est scindé sur K si son polynôme caractéristique est scindé sur
K. Il est scindé simple si les racines du polynôme caractéristique sont toutes simples.
Pr Qr m(λk )
De plus, tr(u) = k=1 m(λk )λk et detu = k=1 λk .
Définition 7.3.1. L’endomorphisme u est diagonalisable sur K s’il existe une base de E dans laquelle
la matrice de u est une matrice diagonale de Mn (K). Une telle base s’appelle une base de diagonalisation
de u.
Remarque 7.3.1. Une base de diagonalisation B de u est formée de vecteurs propres de u. Dans une
telle base, la famille (v1 , . . . , vℓ ) obtenue en regroupant les vecteurs propres associés à une valeur propre
λ forme une base de Eλ .
Pour les matrices, on dit que A ∈ Mn (K) est diagonalisable si l’endomorphisme uA de Kn canonique-
ment associé est diagonalisable. En considérant la matrice de passage de la base canonique à une base de
diagonalisation de uA , on voit que A est diagonalisable s’il existe une matrice P ∈ Mn (K) inversible telle
que P −1 AP soit diagonale.
Proposition 7.3.1. Si u est diagonalisable, alors le polynôme caractéristique de u est scindé sur K et il
est de la forme :
Yr
χu (X) = (X − λk )dim(Eλk ) ,
k=1
Démonstration. Soit B une base de diagonalisation de u et soit Bλ la famille de vecteurs de B qui sont
des vecteurs propres associés à une valeur propre λ. C’est une base de Eλ . Dans la base B, la matrice de
u est diagonale d’éléments diagonaux les valeurs propres de u. De plus chaque valeur propre λ se répète
autant de fois la dimension de Eλ . D’où le polynôme caractéristique de u est
r
Y
χu (X) = (X − λk )dim(Eλk ) .
k=1
♣
Remarque 7.3.2. On vient de montrer que lorsque u est diagonalisable, la multiplicité d’une valeur
propre coincide avec la dimension du sous espace propre associé.
Le résultat qui suit donne une première caractérisation des endomorphismes diagonalisables.
Théorème 7.3.1. Les assertions suivantes sont équivalentes :
1. u est diagonalisable.
2. E est la somme des sous espaces propres de u.
3. E est la somme directe des sous espaces propres de u.
Démonstration. L’implication directe est claire. Montrons la réciproque. Puisque la somme Eλ1 +· · ·+Eλr
est directe, il vient :
Xr
dim(Eλ1 + · · · + Eλr ) = dimEλk = n.
k=1
Ceci montre que E = Eλ1 + · · · + Eλr et par suite u est diagonalisable d’après le théorème précédent. ♣
Corollaire 7.3.2. L’endomorphisme u est diagonalisable si et seulement si u est scindé et vérifie
On a
χB (X) = (X − 1)(X − 2)(X − m).
82 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES
— Si m ̸= 1 et m ̸= 2, B admet trois valeurs propres distinctes deux à deux, donc elle est diagonali-
sable.
— Si m = 1, B est diagonalisable si, et seulement si, dim(E1 ) = 2. Calculons E1 . Un vecteur
X = xe1 + ye2 + ze3 appartient à E1 si, et seulement si, BX = X. Ceci donne lieu au système
linéaire :
x = x
y = y
−x + y + 2z = z
1) On calcule χu (X).
Si χu (X) est scindé sur K on passe à l’étape suivante ; sinon u
n’est pas diagonalisable.
2) Pour chaque valeur propre λ de u on détermine la dimension de Eλ .
a) Si pour une valeur propre λ, on a dim(Eλ ) < m(λ), l’endomorphisme u
n’est pas diagonalidable sur K.
b) Si pour toute valeur propre λ, on a dim(Eλ ) = m(λ), l’endomorphisme u
est diagonalisable ; on passe à l’étape suivante.
3) Pour chaque valeur propre λ, on détermine une base Bλ de Eλ .
Soit B ′ la réunion de ces bases.
4) Soit P la matrice de passage de B à B ′ .
La matrice D de u dans B ′ est diagonale et on a D = P −1 AP .
Parmi les applications de la diagonalisation des matrices, on cite le calcul des puissances d’une matrice
carrée. Soit A ∈ Mn (K) une matrice diagonalisable ; il existe alors une matrice diagonale D ∈ Mn (K) et
une matrice inversible P ∈ Mn (K) telles que A = P DP −1 .
En notant
λ1 0
D=
.. ,
.
0 λn
on a :
λk1
0
∀k ∈ N Dk =
.. ,
.
0 λkn
7.3. ENDOMORPHISMES DIAGONALISABLES 83
L’étude de ce système montre que E1 est engendré par 2e1 +e2 +e3 . Pour E2 , nous avons déjà vu que c’est
le plan d’équation x = y. Ainsi une base de E2 est (e1 + e2 , e3 ). Finalement, la matrice A est semblable
à la matrice diagonale
1 0 0
D = 0 2 0 .
0 0 2
et la matrice de passage est
2 1 0
P = 1 1 0 .
1 0 1
La formule de changement de bases montre que
D = P −1 AP.
Puisque
1 0 0
Dk = 0 2k 0 ,
0 0 2k
il vient
2 − 2k −2 + 2 2k
0
Ak = P Dk P −1 =
k
1−2 −1 + 2 2k 0 .
1 − 2k −1 + 2k 2k
Donnons maintenant des critères de diagonalisabilité d’un endomorphisme en se basant sur des pro-
priétés de son polynôme minimal.
Proposition 7.3.2. Si u est diagonalisable de spectre Sp(u) = {λ1 , . . . , λr }, le polynôme minimal de u
est
Yr
Mu (X) = (X − λk ).
k=1
Qr
Démonstration. Posons P = k=1 (X − λk ). Puisque (X − λk ) divise Mu pour tout k ∈ {1, . . . , r}, il
vient P divise Mu .
Montrons que Mu divise P . Soit x ∈ E, il s’écrit x = x1 + · · · + xr , avec xi ∈ Eλi . On a alors :
Qr
P (u)(x) = (Qk=1 (u − λk IdE ))(x)
r
= (Qk=1 (u − λk IdE ))(x1 + · · · + xrQ)
r r
= ( k=1 (u − λk IdE ))(x1 ) + · · · + ( k=1 (u − λk IdE ))(xr )
Qr Qr−1
= ( k̸=1 (u − λk IdE )) ◦ (u − λ1 IdE )(x1 ) + · · · + ( k=1 (u − λk IdE )) ◦ (u − λr IdE )(xr )
= 0.
Ceci est vrai pour tout x dans E, donc P (u) = 0. Ceci prouve que Mu divise P .
Le résultat est donc démontré. ♣
84 CHAPITRE 7. RÉDUCTION D’ENDOMORPHISMES DIAGONALISABLES
Théorème 7.3.2. Un endomorphisme est diagonalisable si, et seulement si, il annule un polynôme scindé
simple.
Qs
Démonstration. L’implication directe est évidente. Montrons la réciproque. Soit N (X) = k=1 (X − λk )
un polynôme scindé simple tel que N (u) = 0. Le lemme des noyaux montre que E = ⊕sk=1 Ker(u − λk IdE )
et le résultat est obtenu en considérant une base adaptée à cette somme directe. ♣
Corollaire 7.3.4. Un endomorphisme est diagonalisable si et seulement si son polynôme minimal est
scindé simple.
Proposition 7.3.3. L’endomorphisme induit sur un sous-espace vectoriel stable par un endomorphisme
diagonalisable est diagonalisable.
Dans tout ce chapitre K désigne un corps commutatif et E est un espace vectoriel sur K de dimension
finie.
Définition 8.1.1. L’endomorphisme u est dit trigonalisable s’il existe une base de E dans laquelle la
matrice de u est une matrice triangulaire de Mn (K). Une telle base s’appelle une base de trigonalisation
de u.
Remarque 8.1.1. Si la matrice de u dans une base (e1 , . . . , en ) est triangulaire supérieure, la matrice
de u dans la base (en , . . . , e1 ) est triangulaire inférieure.
Pour les matrices, on dit que A ∈ Mn (K) est trigonalisable si l’endomorphisme uA de Kn canonique-
ment associé est trigonalisable. En considérant la matrice de passage de la base canonique à une base de
trigonalisation de uA , on voit que A est trigonalisable s’il existe une matrice P ∈ Mn (K) inversible telle
que P −1 AP soit triangulaire.
Le résultat suivant présente une condition suffisante pour que l’endomorphisme u soit trigonalisable.
Proposition 8.1.1. Si l’endomorphisme u est scindé de valeurs propres λ1 , . . . , λn , (comptées avec leurs
multiplicités), alors il existe une base de E dans laquelle la matrice de u est triangulaire supérieure
d’éléments diagonaux λ1 , . . . , λn .
Démonstration. Nous allons procéder par récurrence sur la dimension n de E. L’assertion est vraie pour
n = 1. Supposons qu’elle soit acquise pour toute dimension strictement inférieure à n (avec n > 1).
On considère un hypeplan F qui contient l’image de l’endomorphisme non inversible u − λn IdE . Il est
stable par u − λn IdE et, donc, par u. Il s’ensuit que dans une base (e1 , . . . , en−1 , en ) de E, adaptée à F ,
la matrice de u est de la forme
A B
0 λn
où A est la matrice de l’endomorphisme uF induit par u sur F . Puisque
χu (X) = (X − λ1 ) · · · (X − λn )
on obtient
χuF = χA (X) = (X − λ1 ) · · · (X − λn−1 ).
85
86 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS
En utilisant l’hypothèse de récurrence, il existe (f1 , . . . , fn−1 ) une base de F dans laquelle la matrice de
uF est de la forme
λ1 ⋆ · · · ⋆
. . . . ..
0
. . .
.
. . .
.. .. ..
⋆
0 . . . 0 λn−1
Finalement, la matrice de u dans la base (f1 , . . . , fn−1 , en ) est de la forme
λ1 ⋆ · · · ⋆
..
0 ... ...
.
.
. .
.. .. ... ⋆
0 . . . 0 λn
♣
On peut maintenant énoncer le théorème suivant :
Théorème 8.1.1. L’endomorphisme u est trigonalisable si et seulement si il est scindé sur K.
Démonstration. Si u est trigonalisable, alors, par définition, sa matrice dans une base convenable est
triangulaire. Il est donc scindé puisque le polynôme caractéristique d’une matrice triangulaire l’est. La
réciproque vient de la proposition précédente. ♣
Exemple 8.1.1. Soit la matrice de M3 (R) :
1 4 −2
A= 0 6 −3 .
−1 4 0
On vérifie facilement que χA (X) = (X − 2)2 (X − 3). Donc A est trigonalisable puisque χA (X) est scindé.
Cherchons le sous-espace propre E3 en résolvant le système AX = 3X. Ce qui conduit au système
−2x + 4y − 2z = 0
3y − 3z = 0 .
−x + 4y − 3z = 0
Trigonalisation de matrices d’ordre 3 L’algorithme suivant décrit une méthode simple pour la tri-
gonalisation des matrices carrées d’ordre 3. Soit A une matrice de M3 (K) de polynôme caractéristique
scindé sur K.
Algorithme :
1) A admet trois valeurs propres distinctes deux à deux : dans ce cas, A est diagonalisable sur K.
2) A admet deux valeurs propres distinctes λ1 et λ2 avec m(λ2 ) = 2.
a) Si dim(Eλ2 ) = 2, la matrice A est diagonalisable sur K.
b) Si dim(Eλ2 ) = 1,
On choisit v1 un vecteur propre associé à λ1 .
On choisit v2 un vecteur propre associé à λ2 .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
Si P est la matrice de passage de la base canonique de K3 à (v1 , v2 , v3 ),
alors P −1 AP est triangulaire.
3) A admet une seule valeur propre λ.
Si dim(Eλ ) = 3, la matrice A est diagonalisable sur K.
Si dim(Eλ ) = 2,
On détermine une base (v1 , v2 ) de Eλ .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
Si P est la matrice de passage de la base canonique de K3 à (v1 , v2 , v3 ),
alors P −1 AP est triangulaire.
Si dim(Eλ ) = 1,
On considère v1 un vecteur propre associé à λ.
On détermine un vecteur v2 tel que (A − λI3 )v2 soit non nul
et colinéaire à v1 .
On complète la famille (v1 , v2 ) en une base (v1 , v2 , v3 ) de K3 . La base (v1 , v2 , v3 )
est une base de trigonalisation de A.
88 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS
On a χN (X) = X 3 , donc N est nilpotente. Déterminons le sous-espace propre associé à la valeur propre
0. En résolvant le système N X = 0, on obtient
E0 = Vect{v1 = e1 − 2e2 , v2 = e2 − e3 }.
En suite, on complète la famille (v1 , v2 ) par v3 = e3 en une base (v1 , v2 , v3 ) de R3 . C’est une base de
trigonalisation de N . Puisque N v3 = v1 + v2 , il vient N est semblable à la matrice triangulaire stricte
0 0 1
T = P −1 N P = 0 0 1 ,
0 0 0
avec λi ̸= λj pour i ̸= j.
Définition 8.2.1. On appelle sous espace caractéristique (ou spectrale) de u associé à la valeur propre
λk , et l’on note Fλk , le sous espace Ker(u − λk IdE )m(λk ) .
Le lemme des noyaux montre que E est la somme directe des sous espaces caractéristiques de u :
E = Fλ1 ⊕ · · · ⊕ Fλr .
Démonstration. Le sous espace Fk est le noyau d’un polynôme en u donc il est stable par u. Soient uk
l’endomorphisme induit par u sur Fk et nk = uk − λk IdFk . Puisque (u − λk IdE )m(λk ) est nul sur Fλk ,
l’endomorphisme nk est nilpotent. D’autre part, le polynôme caractéristique de uk est (X − λk )f (λk ) où
f (λk ) est la dimension de Fk . On obtient ainsi
r
Y
χu (X) = (X − λk )f (λk )
k=1
Démonstration. Pour k ∈ {1, . . . , r}, soit Bk une base de Fk dans laquelle la matrice Nk de nk est
triangulaire supérieure stricte d’ordre m(λk ). Dans la base B, réunion des bases Bk , la matrice de u est
diagonale par blocs et le kme bloc est égal à λk Im(λk ) + Nk . ♣
On donne un résultat reliant le polynôme minimal de u et ses sous espaces caractéristiques.
Qr
Proposition 8.2.2. Si Mu (X) = k=1 (X − λk )r(λk ) est le polynôme minimal de u, alors r(λk ) est
l’indice de nilpotence de nk et Fk est le noyau de (u − λk IdE )r(λk ) .
′
Démonstration. Le polynôme minimal de uk est (X − λk )r (λk ) où r′ (λk ) est l’indice de nilpotence de nk .
Il s’ensuit que le polynôme minimal de u est
r
Y ′
(X − λk )r (λk ) .
k=1
90 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS
et puisque Ker(u − λk )r(λk ) ⊂ Fk pour tout k ∈ {1, . . . , r}, il vient Fk = Ker(u − λk )r(λk ) . ♣
Exemple 8.2.1. Considérons la matrice J de M4 (R) :
0 1 1 1
1 0 1 1
J = .
1 1 0 1
1 1 1 0
On appelle matrice réduite de Jordan toute matrice diagonale par blocs de blocs de Jordan. Une telle
matrice est de la forme
Jh1 (λ1 ) 0 ··· 0
.. ..
0 Jh2 (λ1 ) . .
,
.. . . . .
. . . 0
0 ··· 0 Jhq (λq )
avec h1 , . . . , hq des entiers strictement positifs et λ1 , . . . , λq des scalaires non nécessairement deux à deux
distincts. On note une telle matrice par diag(Jh1 (λ1 ), . . . , Jhq (λq )).
Exemple 8.3.1. La matrice suivante est un bloc de Jordan de valeur propre 2 :
2 1 0
J(λ) = 0 2 1
0 0 2
On a la proposition suivante :
Proposition 8.3.1. 1. La suite {0} = Ker(u0 ) ⊂ Ker(u) ⊂ · · · ⊂ Ker(ur−1 ) ⊂ Ker(ur ) = E est
strictement croissante.
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 93
2. Pour k ∈ {2, . . . , r}, si (ek1 , . . . , ekℓk ) est une base d’un supplémentaire Hk de Ker(uk−1 ) dans
Ker(uk ), alors il existe une base (ek−1 1 , . . . , ek−1
ℓk−1 ) d’un supplémentaire Hk−1 de Ker(u
k−2
) dans
k−1
Ker(u ) de la forme
(u(ek1 ), . . . , u(ekℓk ), f1 , . . . , fq ).
Démonstration. 1. Il est facile de voir que si Ker(uj ) = Ker(uj+1 ) pour un certain j alors Ker(uj ) =
j+i
Ker(u ) pour tout i ≥ 0. Ceci permet de montrer le premier point.
2. La somme Ker(uk−2 ) + Ku(ek1 ) + · · · + Ku(ekℓk ) de sous espaces de Ker(uk−1 ) est directe. En effet,
soit (h, α1 , . . . , αℓk ) ∈ Ker(uk−2 ) × Kℓk vérifiant h + α1 u(ek1 ) + · · · + αℓk u(ekℓk ) = 0. En introduisant
uk−2 , on obtient uk−1 (α1 ek1 + · · · + αℓk ekℓk ) = 0. Il s’ensuit que α1 ek1 + · · · + αℓk ekℓk appartient à
Ker(uk−1 ) et à l’un de ses supplémentaires dans Keruk . Il vient alors αi = 0 pour i ∈ {1, . . . , ℓk }
et par suite h = 0. Enfin, une base d’un supplémentaire de Ker(uk−2 ) + Ku(ek1 ) + · · · Ku(ekℓk ) dans
Ker(uk−1 ) fournit la famille (f1 , . . . , fq ) convenable.
3. Ce point découle simplement du dernier point. ♣
On construit ainsi par récurrence descendante une suite de familles de vecteurs (ek1 , . . . , ekℓk ) véri-
fiant pour tout k ∈ {1, . . . , r} :
(a) (ek1 , . . . , ekℓk ) est une base d’un supplémentaire Hk de Ker(uk−1 ) dans Ker(uk ).
(b) u(ekj ) = ek−1
j pour tout j ∈ {1, . . . , ℓk } et u(e1j ) = 0 pour tout j ∈ {1, . . . , ℓ1 }.
Puisque E = ⊕rk=1 Hk , la réunion des familees (ek1 , . . . , ekℓk ) forme une base de E. On dispose
alors d’un tableau T , dit tableau de Young, dont la forme déterminée par la liste (ℓ1 , . . . , ℓr ) des
longueurs de ses lignes ne dépend que de u.
Dans la suite, on note (h1 , . . . , hℓ1 ) la suite décroissante des hauteurs des colonnes du tableau T
et on rappelle que ℓ1 = dim(Ker(u)).
Tableau de Young
Lemme 8.3.1. Pour k ∈ {1, . . . , r}, la famille constituée des éléments des k premières lignes (à
partir du bas) du tableau de Young, est une base de Ker(uk ).
avec s1 ≥ s2 ≥ · · · ≥ sq .
Soit T ′ le tableau obtenu en disposant les éléments de C de bas en haut et de gauche à droite par
colonnes de hauteurs si .
On a le lemme suivant :
94 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS
Lemme 8.3.2. Le noyau de uk est engendré par les vecteurs des k premières lignes de T ′ , (à
partir du bas).
Démonstration. Pour tout i ∈ {1, . . . , q}, Jsi (0) est un bloc de Jordan, donc si ≤ r. Soit Gk , k ∈
{1, . . . , r} le sous espace engendré par les éléments de la k ème ligne de T ′ . On a G1 ⊕ · · · ⊕ Gk ⊂
Ker(uk ). Ceci montre que dim(Gk ) ≤ ℓk . Comme dim(G1 ) + · · · + dim(Gr ) = ℓ1 + · · · + ℓr , il vient
dim(Gk ) = ℓk . D’où G1 ⊕ · · · ⊕ Gk = Ker(uk ) pour tout k ∈ {1, . . . , r}. Ceci complète la preuve.♣
On peut maintenant énoncer le théorème suivant :
Théorème 8.3.1. Il existe une base de E dans laquelle la matrice de u est une matrice réduite
de Jordan
diag(Jh1 (0), . . . , Jhℓ1 (0)),
avec (h1 , . . . , hℓ1 ) une suite décroissante d’entiers non nuls.
Deux matrices réduites de Jordan représentant u sont égales à l’ordre près de blocs de Jordan.
et la suite (h1 , . . . , hℓ1 ) est bien une suite décroissante d’entiers non nuls.
Supposons que la matrice de u dans une autre base C soit de la forme
Quitte à permutter les éléments de C, on peut supposer que (s1 , . . . , sq ) est une suite décroissante
d’entiers non nuls. En disposant les éléments de C de bas en haut et de gauche à droite par
colonnes de hauteurs si , on construit un tableau T ′ . D’après le lemme précédent, le noyau de uk
est engendré par les vecteurs des k premières lignes de T ′ (à partir du bas), alors les lignes de
T et T ′ ont les mêmes longueurs et ces deux tableaux ont la même forme. Il vient q = ℓ1 et
(h1 , . . . , hℓ1 ) = (s1 , . . . , sℓ1 ). ♣
Comme e1 ∈ R3 \Ker(uN ), alors R3 = Ker(uN )⊕Re1 . On complète uN (e1 ) en une base (uN (e1 ), e2 )
de Ker(uN ). Par conséquent, un tableau de Young de N est
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 95
e1
uN (e1 ) e2
Il s’ensuit que la famille (uN (e1 ), e1 , e2 ) est une base de Jordan de N . Une réduite de Jordan
semblable à N est
0 1 0
J = 0 0 0
.
0 0 0
Exemple 8.3.3. Soit la matrice nilpotente
0 −1 1
0
N = 1 −1
.
1 2 −1
Son indice de nilpotence est r = 3. On calcule facilement la suite des noyaux :
Ker(uN ) = Vect{−e1 + e2 + e3 } ⊂ Ker(u2N ) = Vect{−e1 + e2 , e3 } ⊂ Ker(u3N ) = R3 .
Comme R3 = Ker(N 2 ) ⊕ Re1 , Ker(N 2 ) = Ker(N ) ⊕ Vect{uN (e1 )} et Ker(N ) = Vect{u2N (e1 )},
alors un tableau de Young de N est
e1
uN (e1 )
u2N (e1 )
Il découle que la famille (u2N (e1 ), uN (e1 ), e1 ) forme une base de Jordan de N et qu’une réduite de
Jordan semblable à N est
0 1 0
J = 0 0 1 .
0 0 0
−1 2 3 4
−1 3 4 6
Exemple 8.3.4. On considère la matrice nilpotente N = . Son indice
−1 1 2 2
1 −2 −3 −4
de nilpotence est r = 3. De plus, la suite des noyaux est :
Ker(uN ) = Vect{−2e2 + e4 , e1 − e2 + e3 } ⊂ Ker(u2N ) = Vect{−2e2 + e4 , −e2 + e3 , e1 } ⊂ Ker(u3N ) = R4 .
Puisque R4 = Ker(u2N ) ⊕ Vect{e2 }, Ker(u2N ) = Ker(uN ) ⊕ Vect{uN (e2 )} et Ker(uN ) = Vect{u2N (e2 ), e1 −
e2 + e3 }, un tableau de Young de N est :
e2
uN (e2 )
u2N (e2 ) e1 − e2 + e3
Ainsi une base de Jordan de N est (u2N (e2 ), uN (e2 ), e2 , e1 − e2 + e3 ) et une réduite de Jordan semblable à
N est
0 1 0 0
0 0 1 0
J = .
0 0 0 0
0 0 0 0
96 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS
e3 e4
uN (e3 ) uN (e4 )
On conclut qu’une base de Jordan de N est (uN (e3 ), e3 , uN (e4 ), e4 ) et qu’une réduite de Jordan
semblable à N est
0 1 0 0
0 0 0 0
J = .
0 0 0 1
0 0 0 0
Exemple 8.3.6. Soit la matrice
−2 4 5 7
−1 3 4 6
N = .
0
−1 0 −1
0 0 −1 −1
e3
uN (e3 )
u2N (e4 )
u3N (e4 )
Il s’ensuit que (u3N (e3 ), u2N (e3 ), uN (e3 ), e3 ) est une base de Jordan de N et qu’une réduite de Jordan
semblable à N est
0 1 0 0
0 0 1 0
J = .
0 0 0 1
0 0 0 0
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 97
où les λk sont deux à deux distincts. Le théorème suivant donne le résultat essentiel de cette
section.
Théorème 8.3.2. Il existe une base de E dans laquelle la matrice de u est une matrice réduite
de Jordan. Deux matrices réduites de Jordan représentant u sont égales à l’ordre près de blocs de
Jordan.
Démonstration. Pour tout k ∈ {1, . . . , r}, soit Fk le sous espace caractéristique de u associé à la
valeur propre λk et soit uk l’endomorphisme induit par u sur Fk . On considère ensuite l’endo-
morphisme nilpotent nk = uk − IdFk . D’après le théorème 8.3.1, il existe une base Bk de Fk dans
laquelle la matrice de nk est une matrice réduite de Jordan :
Donc la matrice de u dans la base B réunion des bases Bk est la matrice diagonale par blocs
diag(A1 , . . . , Ar ) où Ak est de la forme :
Si une matrice réduite de Jordan représente u dans une autre base, la matrice diagonale par blocs
formée des matrices de Jordan de valeur propre λk représente l’endomorphisme induit uk . On se
ramène au théorème précédent sur les endomorphismes nilpotents en considérant les endomor-
phismes nilpotents nk . ♣
Une base de E dans laquelle la matrice de u est une matrice réduite de Jordan sera dite une base
de Jordan de u. Jordaniser un endomorphisme scindé c’est déterminer une base de Jordan de cet
endomorphisme. Pour les matrices, jordaniser une matrice revient à jordaniser l’endomorphisme
canoniquement associé.
Comme e3 ∈ F−1 \Ker(uA +Id), alors la famille ((uA +Id)(e3 ), e3 ) est une base de F−1 . D’autrepart,
le sous espace caractéristique F2 coincide avec le sous espace propre E2 et admet comme base le
98 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS
vecteur e2 . On conclut que la famille ((uA + Id)(e3 ), e3 , e2 ) constitue une base de Jordan de A et
qu’une réduite de Jordan semblable à A est
−1 1 0
J = 0 −1 0 .
0 0 2
Son polynôme caractéristique est χA (X) = (X + 1)3 . Donc A admet une seule valeur propre et par
suite un seul sous espace caractéristique F−1 . D’autrepart, l’endomorphisme (uA +Id) est nilpotent
d’indice r = 3 et après les calculs, on obtient la suite des noyaux :
Comme
e1 ∈ F−1 \Ker(uA + Id)2 ,
alors la famille
((uA + Id)2 (e1 ), (uA + Id)(e1 ), e1 )
est une base de Jordan de A. De plus, une réduite de Jordan de A est
−1 1 0
J = 0 −1 1 .
0 0 −1
On a χA (X) = (X − 2)3 , donc A admet une seule valeur propre λ = 2. On vérifie que l’endomor-
phisme uA − 2Id est nilpotent d’indice r = 2. Après les calculs, on obtient la suite :
Puisque le vecteur e1 ∈ F2 \Ker(uA − 2Id) et la famille ((uA − 2Id)(e1 ), e2 ) forme une base de
Ker(uA − 2Id), une base de Jordan est ((uA − 2Id)(e1 ), e1 , e2 ). Une réduite de Jordan semblable à
A est
2 1 0
J = 0 2 0 .
0 0 2
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 99
On a χA (X) = (X + 1)4 . On montre que l’endomorphisme induit par uA + Id sur F−1 est nilpotent
d’indice r = 2. Puis on calcue la suite des noyaux
Comme e1 ∈ F−1 \Ker(uA +Id), il suffit de complèter la famille (uA +Id)(e1 ), e1 par 2e1 +e2 , 3e1 +e3
pour avoir une base de Jordan de A. On conclut qu’une réduite de Jordan est
−1 1 0 0
0 −1 0 0
J = .
0
0 −1 0
0 0 0 −1
8.3. RÉDUCTION DE JORDAN DES ENDOMORPHISMES SCINDÉS 101
Ker(uA +Id) = Vect{2e3 −e4 , e1 −e2 +e3 } ⊂ Ker(uA +Id)2 = Vect{2e3 −e4 , −e2 +e3 , e1 } ⊂ F−1 = R4 .
par 2e3 − e4 pour avoir la base de Jordan. Enfin une réduite de Jordan de A est
−1 1 0 0
0 −1 1 0
.
0
0 −1 0
0 0 0 −1
On a χA (X) = (X − 2)4 et on vérifie que l’endomorphisme (uA − 2Id) est nilpotent d’indice r = 4.
Comme
Ker(uA − 2Id)3 = Vect{2e1 + e2 , 2e1 + e3 , 3e1 + e4 }
et
e1 ∈ F2 \Ker(uA − 2Id)3 ,
alors la famille
((uA − 2Id)3 (e1 ), (uA − 2Id)2 (e1 ), (uA − 2Id)(e1 ), e1 )
est une base de Jordan de A. On conclut qu’une réduite de Jordan de A est
2 1 0 0
0 2 1 0
J = .
0 0 2 1
0 0 0 2
102 CHAPITRE 8. RÉDUCTION DES ENDOMORPHISMES SCINDÉS
Chapitre 9
Remarque 9.1.1. (a) L’application exponentielle de Mn (K) dans Mn (K) qui à une matrice A
P∞ k
fait correspondre eA , est bien définie. En effet, la série k=0 Ak! est normalement convergente
sur toute partie bornée de Mn (K) pour des normes bien appropriées.
(b) Lorsque n = 1 et K = R, on retrouve la définition de l’exponentielle d’un nombre réel.
(c) L’exponentielle de la matrice nulle est la matrice identité.
Nk
Pr−1
(d) L’exponentielle d’une matrice nilpotente N d’indice de nilpotence r est la matrice k=0 k! .
103
104 CHAPITRE 9. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE
Comme
eλ1
0 ··· 0
.. ..
D
0 . . 0
e =
. ..
,
.. .. ..
. . .
0 ··· 0 eλ n
r−1
!
X Nk
eA = eD eN = eD ,
k!
k=0
D’où
e 0 0
eA = P 0 e 0 P −1 (I3 + N ).
0 0 e2
9.2. FONCTIONS VECTORIELLES 105
Ainsi
∀t ∈ R : ϕ′ (t) = Aϕ(t).
où les aij sont des scalaires, les xi sont des fonctions de classe C 1 d’un intervalle non vide I de
R dans K et les bi sont des fonctions continus de I dans K.
(S) X ′ = AX + B(t).
Le syst (S) est dit homog ou sans second membre lorsque b1 = b2 = · · · = bn = 0. Dans la suite le
syst (SH ), X ′ = AX sera dit le syst homog associé à (S).
Notons que les solutions du syst (S) sont des fonctions de classe C 1 de I dans Kn . Le théor
de Cauchy-Lipschitz assure l’existence et l’unicité des solutions vérifiant des conditions initiales
données.
Théorème 9.3.1. (Cauchy-Lipschitz)
Pour tout t0 ∈ I et tout X0 ∈ Kn , le syst différentiel linéaire (S) admet une unique solution ϕ de
classe C 1 telle que ϕ(t0 ) = X0 .
Pour résoudre le syst (S) on commence par résoudre le syst homog associé (SH ). Le théor suivant
donne la forme des solutions de (SH ).
Proposition 9.3.1. Soit A ∈ Mn (K). Alors
(a) L’ensemble des solutions de (SH ) est un K-espace vectoriel de dimension n.
(b) La solution ϕ de (SH ) vérifiant ϕ(0) = X0 pour un vecteur X0 ∈ Kn , est donnée par
ϕ(t) = etA X ∀t ∈ R.
Démonstration. (a) Soit E l’ensemble des solutions de (SH ). Il est évident que E est un K-espace
vectoriel. Considérons l’application ψ de E dans Kn définie par ψ(ϕ) = ϕ(0). C’est une appli-
cation linéaire et le théorme de Cauchy-Lipschitz assure que c’est une bijection. Ceci montre
que ψ est un isomorphisme ’espaces vectoriels. D’où dim(E) = dim(Kn ) = n.
(b) Puisque ϕ′ (t) = Aϕ(t) ∀t ∈ R, la fonction ϕ est une solution de (SH ). Le théorème de Cauchy-
Lipschitz montre que les solutions de (SH ) sont de cette forme. ♣
Le théor suivant permet d’obtenir une base de l’ensemble des solutions d’un système homogène.
Une telle base s’appelle un syst fondamental de solutions.
Théorème 9.3.2. Soient A ∈ Mn (K), (X1 , . . . , Xn ) une base de Kn et ϕ1 , . . . , ϕn sont les fonc-
tions vectorielles définies par :
∀t ∈ R, ϕi (t) = etA Xi .
Alors la famille de fonctions (ϕ1 , . . . , ϕn ) est une base de l’ensemble des solutions de (S ′ ).
Démonstration. Il est facile de montrer que la famille (ϕ1 , . . . , ϕn ) est libre. C’est donc une base
puisque l’espace des solutions est de dimension n. ♣
Exemple 9.3.1. Déterminer la solution ϕ du syst différentiel linéaire
′
x = −x + y
(SH )
y ′ = 3x + y
1
vérifiant ϕ(0) = X0 = .
1
9.3. SYSTS DIFFÉRENTIELS LINÉAIRES À COEFFICIENTS CONSTANTS 107
∀t ∈ R, ϕ(t) = etA X0 .
Puisque
3 −2t 1 −2t
+ 14 e2t 1 2t
etA = 4e 4e − 4e ,
3 2t 3 −2t 1 −2t
4e − 4e 4e + 34 e2t
il vient
1 2t −2t
ϕ(t) = 2 (e + e )
∀t ∈ R.
3 2t 1 −2t
2 e − 2 e
Remarque 9.3.1. Si la fonction vectorielle ϕ est une solution de (S), alors les solutions de (S)
sont de la forme ϕ + ϕH , avec ϕH est une solution du syst homog (SH ).
En général, on utilise une technique dite méthode de variation des constantes pour calculer les
solutions du syst (S).
Proposition 9.3.2. Soit A ∈ Mn (K) et B ∈ C(I, Kn ). Alors pour tout t0 ∈ I et X0 ∈ Kn , la
solution ϕ du syst différentiel
X ′ = AX + B(t)
vérifiant ϕ(t0 ) = X0 est donnée par la formule
Z t
(t−t0 )A
∀t ∈ I, ϕ(t) = e X0 + e(t−s)A B(s)ds.
t0
Démonstration. D’apre théor de Cauchy-Lipschitz, le syst admet une unique solution ϕ valant X0
en t0 et définie sur I tout entier. On utilise la méthode de variation de la constante pour déterminer
ϕ. On sait que les solutions de (SH ) sont du type t 7→ etA Y , donc on écrit ϕ(t) = etA Y (t). On a
ϕ′ (t) − Aϕ(t) = AetA Y (t) + etA Y ′ (t) − AetA Y (t) = etA Y ′ (t),
On montre que
Rt
En utilisant la formule ∀t ∈ I, ϕ(t) = etA X0 + 0 e(t−s)A B(s)ds, on obtient la solution de (S)
vérifiant ϕ(0) = (1, −1, 0) :
2et − 32 cos(t) − 13
ϕ(t) = − 25 et + 76 cos(t) + 13 .
− 25 et + 56 cos(t) + 53
Remarque 9.3.2. Soit (S) le système différentiel linéaire X ′ = AX +B, avec A ∈ Mn (K) scindée
sur K. Soit P une matrice inversible telle que J = P −1 AP soit une matrice réduite de Jordan. En
faisant le changement de variables X = P Z, le système (S) devient Z ′ = JZ + B ′ . Puisque J est
une réduite de Jordan, le nouveau système se présente d’une manière plus simple et sa résolution
se ramne à résoudre n équations différentielles linéaires du premier ordre.
Le polynôme caractéristique de A est χA (X) = (X − 1)2 (X − 2). On montre que les deux sosu-
espaces caractéristiques de A sont :
−sin(t) − 2et
B ′ = P −1 B = 2 sin(t) + et .
sin(t) + et
Démonstration. Posons
0 1 ··· ··· 0
0 0 1 ··· 0
A= CPt = .. .. .. .. ..
.
. . . . .
0 ··· ··· 0 1
−a0 ··· ··· ··· −an−1
On a
n−1
X n−1
X
∀1 ≤ j ≤ n−2 ϕ′j+1 = (φ(j) )′ = φ(j+1) = ϕj+2 , ϕ′n = (φ(n−1) )′ = φ(n) = − ai φ(i) +b(t) = − ai ϕi+1 +b(t).
i=0 i=0
Donc, en notant Y (t) = (y(t), y ′ (t), . . . , y (n−1) (t)) et B(t) = (0, . . . , 0, b(t)), l’équation différentielle (E)
devient
Y ′ = AY + B.
Exemple 9.4.1. Résoudre l’équation différentielle linéaire y ′′ + y = sin(t).
0 1
L’écriture matricielle de cette équation différentielle est : X ′ = AX + B, avec A = et B(t) =
−1 0
0
. On montre que
sin(t)
cos(t) sin(t)
etA = .
−sin(t) cos(t)
Enfin, on obtient les solutions :
1 1
y(t) = (2α − t)cos(t) + (2β + 1)sin(t), α, β ∈ R.
2 2
110 CHAPITRE 9. SYSTÈMES DIFFÉRENTIELS LINÉAIRES DU PREMIER ORDRE
Bibliographie
111