Académique Documents
Professionnel Documents
Culture Documents
1 Matrices -Déterminants 3
1.1 intoduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Remarques et dénitions : . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Multiplication des matrices : . . . . . . . . . . . . . . . . . . . . . . 5
1.2.3 Propriétés et dénitions . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Déterminants d'ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Déterminants d'ordre 3 . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.4 Propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.5 Règle pratique pour calculer un déterminant d'ordre 3 :Règle de
Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.6 Déterminants d'ordre n . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.7 Propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Applications des déterminants . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Calcul de l'inverse d'une matrice . . . . . . . . . . . . . . . . . . . 12
1.4.2 Rang d'une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.2.1 Matrices échelonnées . . . . . . . . . . . . . . . . . . . . . 13
1.4.2.2 Méthode pratique de calcul du rang : . . . . . . . . . . . 14
1.5 Systèmes d'équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Systèmes de Cramer : . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.2 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.3 Méthode d'élimination de Gauss . . . . . . . . . . . . . . . . . . . . 17
1.6 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Espaces vectoriels et applications linéaires 25
2.1 Objectives du chapitre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Règles de calcul dans un K -e.v. E . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Base d'un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1
TABLE DES MATIÈRES 2
2.3.0.1 Notation : . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Dimension d'un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.6 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.7 Rang d'une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . 33
2.8 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . 34
2.9 Matrice d'une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 34
2.9.1 Propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . 35
2.10 Rang d'un système de vecteurs, d'une matrice . . . . . . . . . . . . . . . . 36
2.11 Changement de base et matrice de passage . . . . . . . . . . . . . . . . . . 37
2.12 Exercices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3 Polynômes et fractions rationnelles 46
3.1 Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1.1 L'espace vectoriel des polynômes . . . . . . . . . . . . . . . . . . . 46
3.1.2 Degré d'un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.1.3 Arithmétique des polynômes . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Les fractions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.2.1 Pratique de la décomposition dans C[X] . . . . . . . . . . . . . . . 55
3.2.2 Pratique de la décomposition dans R[X] . . . . . . . . . . . . . . . 56
3.3 Exrcices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4 Réduction des endomorphismes 58
4.1 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . 58
4.1.1 Cas des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . 58
4.1.2 Cas des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3 Endomorphismes et matrices diagonalisables . . . . . . . . . . . . . . . . . 61
4.4 Endomorphismes et matrices trigonalisables . . . . . . . . . . . . . . . . . 62
4.5 Polynôme minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.6 Exercies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.1 intoduction
? Les matrices sont largement utilisées dans diérents domaines scientiques, techniques,traitement
d'images, économiques et de gestion.
? Elles interviennent comme outil de modélisation, d'analyse et de résolution de pro-
blèmes.
? Les problèmes étudiés, notamment dans les sciences de l'ingénieur, font souvent inter-
venir des grandeurs multidimensionnelles. Par conséquent, le formalisme mathéma-
tiques par lequel ils sont modélisés fait intervenir des opérateurs matriciels.
? Aussi, les méthodes d'analyse numérique, qui approchent des problèmes complexes par
des techniques de discrétisation ou de projection, font largement appel au formalisme
matriciel.
? Ainsi, l'analyse et la résolution de ces problèmes font appel à l'arsenal matriciel, no-
tamment les techniques de réduction des matrices.
1.2 Matrices
3
CHAPITRE 1. MATRICES -DÉTERMINANTS 4
On désigne pa Mn,m (K) l'ensemble des matrices de type (n, m) à coecients dans K ,
sur lequel on dénit deux lois :
Addition :
A + B = (aij ) + (bij ) = (aij + bij )
1≤i≤n 1≤i≤n 1≤i≤n
1≤j≤m 1≤j≤m 1≤j≤m
1 0 −3 2 1 4 3 1 1
Exemple 1.2 3 2 −2
+
−4 −3 2
=
−1 −1 0
Loi externe :
∀λ ∈ K : λ · (aij ) = (λaij )
1≤i≤n 1≤i≤n
1≤j≤m 1≤j≤m
• Si A = (aij )1≤i,j≤n est une matrice carrée d'ordre n, les coecients aii pour 1 ≤ i ≤ n
sont appelés les éléments de la diagonale principale.
• Soit A = (aij ) , on appelle transposée de A, et on note t A, la matrice
1≤i≤n
1≤j≤m
t
A = (bkl )
1≤k≤m
telle que bkl = alk pour tous 1 ≤ k ≤ m et 1 ≤ l ≤ n. t A est donc
1≤l≤n
la matrice de type (m, n) dont les lignes (resp. les colonnes) sont les colonnes (resp.
les lignes) de A.
Exemple :
1 3
t 1 0 −3
= 0 2
3 2 −2
−3 −2
• Si A = t A ( nécessairement A est une matrice carrée), on dit que A est une matrice
symétrique. Si A = − t A, on dit que A est une matrice antisymétrique.
• Une matrice carrée d'ordre n, A = (aij ) est dite triangulaire supérieure si,
1≤i≤n
1≤j≤n
aij = 0 pour i > j ; auquel cas la matrice A est de la forme :
a11 a12 · · ·
a1n
0 a22 · · · a2n
...
0 0 a3n .
. .. ..
.. . .
0 0 · · · 0 ann
On dénit de même une matrice triangulaire inférieure par les conditions : aij = 0
pour i < j .
• Une matrice carrée est dite diagonale si elle est de la forme :
a11 0 ··· 0
0 a22 ··· 0
.. .. . . . .. ,
. . .
0 0 · · · ann
c.à.d. que tous ses coecients sont nuls sauf peut-être ceux qui sont sur la diagonale
principale. Par exemple la matrice carrée d'ordre n
1 0 ··· 0
0 1 ··· 0
In = .. .. . . .. ,
. . . .
0 0 ··· 1
En fait, le coecient ckl est obtenu en faisant le produit de la kième ligne de A par la lième
colonne de B .
Exemple 1.3
1 0
1 0 2
Soient A = −1 2 et B = .
−1 1 3
1 −1
A est de type (3, 2) et B est de type (2, 3). Le produit AB est déni, et BA l'est aussi.
la matrice
AB est de type (3, 3).
1 0 1 0 2
1 0 2
AB = −1 2 = −3 2 4 .
−1 1 3
1 −1 2 −1 −1
La matrice BA est detype (2, 2)
1 0
1 0 2 3 −2
BA = −1 2 = .
−1 1 3 1 −1
1 −1
2-) Si A est de type (m, n), B de type (n, r) et C de type (r, s), alors : (AB)C = A(BC).
3-) Si A et B sont deux matrices à coecients dans K tel que le produit AB est déni,
alors t (AB) = t B t A.
4-) Soit A ∈ Mn (K) une matrice carrée d'ordre n, on dit que A est inversible s'il existe
une matrice B ∈ Mn (K) telle que AB = BA = In , où In est la matrice unité carrée
d'ordre n. On note B par A−1 , qu'on appelle l'inverse de A. Si A est inversible, son
inverse est unique. In est l'élément neutre de la multiplication.
5-) (Mn (K), +, ·) est un anneau. Pour n ≥ 2, Mn (K) n'est jamais commutatif, ni intègre
puisque
:
0 0 0 0 0 0 0 0 0 0 0 0
= et = .
1 0 0 1 0 0 0 1 1 0 1 0
1.3 Déterminants
1-) Le déterminant est une fonction linéaire par rapport à chaque colonne c.à.d
a) D(C1 , C2 + λC3 ) = D(C1 , C2 ) + λD(C1 , C3 ).
a b + λc
D(C1 + λC2 , C3 ) = D(C1 , C3 ) + λD(C2 , C3 ) = 0 0
a b + λc0
b)
a b a c
= 0 0 + λ 0 0
a b a c
a a
2-) 0 0 = 0.
a a
Remarques 1.8
1) En notant par Aij la matrice extraite de A, en supprimant la iième ligne et la j ième
colonne de A, on a :
3
X
det A = a11 det A11 − a12 det A12 + a13 det A13 = (−1)1+j a1j det A1j .
j=1
3
7)
X
Pour 1 ≤ i ≤ 3 on a : det A = (−1)i+j aij det Aij ; c'est le développement du
j=1
ascendante.
Exemple :
2 1 1
2 3 1 3
+1· 1 2
1 2 3 =2·
2 2 −1· 5 2
= 2(4 − 6) − (2 − 15) + (2 − 10)
5 2
5 2 2
= −4 + 13 − 8 = 1
Exemples : Le tableau des signes est formé en commençant par le signe + , et en res-
pectant
le fait quedeux signes consécutifs dans une ligne ou une colonne sont opposés.
+ − + ···
− + − ···
+ − + ···
.. .. ..
. . . ···
1) Soit à calculer le déterminant :
1 3 0 2
−2 −5 7 4
∆ = = D (C1 ; C1 − C2 + C4 ; C3 ; 2C1 − C4 )
3 5 2 1
1
−1 2 −3
1 0 0 0
−2 −5 7 −8
−5 7 −8
= = −1 2 5 = 0 car L2 = L3
3 −1 2 5
−1 2 5
1 −1 2 5
1
3 −1 0 −2
0
2 −4 −1 −6
−2 −6 2 3 9 = D (L1 ; L2 ; 2L1 + L3 ; −3L1 + L4 ; −3L1 + L5 )
3
7 −3 8 −7
3 5 5 2 7
1
3 −1 0 −2
2 −4 −1 −6
0 2 −4 −1 −6
0
0 3 5
= 0 0 0 3 5 = − = D (L1 ; L2 ; L3 ; 2L1 + L4 )
−2 0 8 −1
0 −2 0 8 −1
−4 8
2 13
0
−4 8 2 13
2 −4 −1 −6
2 −4 −1
0 0 3 5 2 −4
= − = − 0
0 3 = 3
= 24
−2 0 8 −1 −2 0 −2 0
8
0 0 0 1
3) On vérie (par récurrence) que si A est une matrice triangulaire, alors det A =
a11 a22 · · · ann .
Démonstration :
Si A est inversible, alors AA−1 = A−1 A = In , d'où det(AA−1 ) = det A det A−1 = det In =
1, par suite det A 6= 0 et det A−1 = 1 ·
det A
Si det A 6= 0, on vérie que :
1 t com(A)A = A 1 t com(A) = I .
n
det A det A
Exrcice
2 1 3
Trouver l'inverse de la matrice A = 1 −1 1
1 4 −2
2 1 3 0
1 0
4 = −(−14 · 3 + 14 · 2) = 14.
det A = 1 −1 1 = 3 −1
1 4 −2 −7 4 −14
−2 3 5
La comatrice associée à A est com(A) = 14 −7 −7 , donc l'inverse de A est la
4 1 −3
matrice
−2 14 4
1
A−1 = 3 −7 1 .
14
5 −7 −3
Propriétés 1.15
Le rang d'une matrice échelonnée est égal au nombre de ses lignes non nulles.
Dénition 1.16 Deux matrices A et B de Mn,p (K) sont équivalentes si l'on peut passer
de A à B par une suite d'opérations élémentaires. Dans ce cas, on note : A ∼ B.
Propriétés 1.17
Démonstration :
Notons
par
Cj , 1 ≤ j ≤ n les n colonnes de la matrice A associée au système (S), et par
b1
b2
B=
..
le terme constant du système. Alors le système (S) est équivalent à l'égalité
.
bn
n
xi Ci = B . Par suite, pour 1 ≤ j ≤ n on a :
X
i=1
n
P
D(C1 , · · · , Cj−1 , B, Cj+1 , · · · , Cn ) = D(C1 , · · · , Cj−1 , xi Ci , Cj+1 , · · · , Cn )
i=1
n
P
= xi D(C1 , · · · , Cj−1 , Ci , Cj+1 , · · · , Cn )
i=1
= xj D(C1 , · · · , Cj−1 , Cj , Cj+1 , · · · , Cn ) = xj det A
, car pour i 6= j , on a D(C1 , · · · , Cj−1 , Ci , Cj+1 , · · · , Cn ) = 0 puisque c'est le déterminant
d'une matrice ayant deux colonnes identiques, à savoir les colonnes Ci et Cj . Par suite,
D(C1 , · · · , Cj−1 , B, Cj+1 , · · · , Cn )
xj =
det A
.
Exercice 1.21
Considérons le systéme
x + 3y + z = 1,
(S) 2x − y + 3z = 2,
x + 2y + 4z = −1 .
C1 C2 C3
1 3 1
(S) = −20
2 −1 3
1 2 4
Donc le systme admet
une solution
unique.
1 3 1
2
−1 3
−1 2 4
det(B,C2 ,C3 )
x = det(S) = −20
= −40
−20
=2
1 1 1
2 2 3
1 −1 4
y = det(C 1 ,B,C3 )
det(S)
= −20
−2
= −20 = −1
10
1 1 1
2 3 2
det(C1 ,C2 ,B)
1 4 −1
−14
= −7
z = det(S) = −20
= −20 10
Démonstration :
Il sut de remarquer que le système (S) admet des solutions si et seulement si le terme
constant B appartient à l'e.v. engendrée par les vecteurs colonnes C1 , · · · , Cn de la ma-
trice A si et seulement si rg(A) = rg(C1 , · · · , Cn ) = rg(C1 , · · · , Cn , B) = rg(AB ).
Pour résoudre le système (S), on calcule le rang da la matrice A associée à (S). Si
r = rg(A), alors il existe un déterminant non nul d'ordre r, qu'on note ∆r , appelé déter-
minant principal. Les équations correspondant aux lignes de ∆r s'appellent les équations
principales, et les inconnues correspondant aux colonnes de ∆r s'appellent les inconnues
principales. Les autres inconnues s'appellent des paramètres. Sans perte de généralité, on
peut supposer que le déterminant ∆r est formé des r premières lignes et des r premières
colonnes de A. Le système (S) implique le système de Cramer (Sr ) suivant :
a11 x1 + a12 x2 + · · · + a1r xr = b1 − a1r+1 xr+1 − · · · − a1n xn
a21 x1 + a22 x2 + · · · + a2r xr = b2 − a2r+1 xr+1 − · · · − a2n xn
.. .. ..
. . .
a x + a x + ··· + a x = b − a
r1 1 r2 2 rr r r rr+1 xr+1 − · · · − arn xn
Exemple 1.23
1) Soit à résoudre dans R le système (S) :
x1 − x2 + x3 − x4 + x5 =1
2x1 − x2 + 3x3 + 4x5 =2
3x1 − 2x2 + 2x3 + x4 + x5 =1
x1 + x3 + 2x4 + x5 =0
Calculons d'abord
le rang de A. Comme A est de type (4, 5), alors rg(A) ≤ 4. On a :
1 −1 1 0 −1 0
2 −1 3 = 1 −1 2 = −2 6= 0, d'où rg(A) ≥ 3.
3 −2 2 1 −2 0
On vérie ensuite que tous les déterminants d'ordre 4 extraits de A sont nuls, méthode
déconseillée !, pour conclure que rg(A) = 3. La méthode à suivre sera donnée après avoir
introduit la notion de rang d'un système de vecteurs d'un espace vectoriel
donné.
1 −1 1
Ainsi, rg(A) = 3. On peut donc considérer que 43 = 2 −1 3 = −2 est un dé-
3 −2 2
terminant principal, par suite les trois premières équations sont les équation principales
et x1 , x2 et x3 sont les inconnues principales. x4 et x5 seront considérées comme des
paramètres. Le système (S) implique donc le système de Cramer suivant :
x1 − x2 + x3 = 1 + x4 − x5
2x1 − x2 + 3x3 = 2 − 4x5
3x1 − 2x2 + 2x3 = 1 − x4 − x5
Ce qui implique :
x1 − x2 + x3 = 1 + x4 − x 5
x2 + x3 = −2x4 − 2x5
−2x3 = −2 − 2x4 + 4x5
Donc x3 = 1+x4 −2x5 ⇒ x2 = −2x4 −2x5 −x3 = −1−3x4 ⇒ x1 = 1+x4 −x5 +x2 −x3 =
−1 − 3x4 + x5 .
Il faut maintenant voir si la dernière équation est satisfaite. On a : x1 + x3 + 2x4 + x5 =
−1 − 3x4 + x5 + 1 + x4 − 2x5 + 2x4 + x5 = 0. Donc le système (S) est resoluble et l'ensemble
des solutions est : {(−1 − 3x4 + x5 , −1 − 3x4 , 1 + x4 − 2x5 , x4 , x5 ) | x4 , x5 ∈ R}.
2) Soit à résoudre le système (S) suivant :
x1 + 2x2 + x3 = −1
6x + x + x = −4
1
2 3
2x1 − 3x2 − x3 = 0
−x1 − 7x2 − 2x3 = 7
x1 − x2 = 1
Les solutions
sont donc :
−1 2 1 −1 −1 0 1 −1 1 3 −1 0
−4 1 1 −4 −2 0 6 −4 1 8 −4 0
0 −3 −1 0 −3 −1 2 0 −1 2 0 −1
2
x1 = −2 = −2 = −2 = −1, x2 = −2 = −2 =
1
2 −1
0
0 −1
6
1 −4
2 −7 −4
4 = −2 et x = 2 −3 0 2 −3 0
= −8
−2 3 −2 = −2 −2 = 4.
On vérie si les équations non principales (équations 4 et 5) sont satisfaites.
−x1 − 7x2 − 2x3 = 1 + 14 − 8 = 7 et x1 − x2 = −1 + 2 = 1. Donc le système admet une
solution unique (x1 , x2 , x3 ) = (−1, −2, 4).
3) Soit à résoudre dans R le système (S) :
x1 + x2 + x3 + x4
= a
x1 − x2 − x3 + x4 = b
,
−x1 − x2 + x3 + x4 = c
−3x1 + x2 − 3x3 − 7x4 = d
1.6 Exercices
Exercice 1.24
Soient A ∈ M(3;4) (R) et B ∈ M(3;4) (R) tels que : (aij = −i + j) et (bij = i + j)
1. Donner les deux matrices.
2. Calculer AB et t BA.
3. Calculer detAB si AB est inversible calculer comAB puis (AB)−1
Exercice 1.25
Calculer
l'inverse des
matrices
carrées suivantes
:
1 0 1 1 1 −1
A = 2 −1 1 , B = 2 0 1 .
−1 1 −1 2 1 −1
Exercice 1.26
Chercher les rangs des matrices suivantes :
1 7 2 5 1 −1 0 1
−2 1 1 5 , B = m 1 −1 −1 .
A= −1 2 1 −m 1
1 4 0
1 4 1 2 1 −1 m 2
Exercice 1.27
0 a b
1. calculer sous formes factorisée les déterminants des matrices suivantes : A = a 0 c ,
b c 0
a a a a
a b c a b b b
B = c a b , C = a b c c .
b c a
a b c d
2.
Résoudre dans R3 les systémes
suivants :
2x + y − z = 1, x + 2y + 3z = 1,
x − y + z = 2, 3x + 3y − z = 2,
4x + 3y + z = 3, 2x + 4y = 3, .
3. Soient a, b,
c, d des réels distincts deux àdeux. Résoudre dans R3 les systèmes sui-
x + y + z = 1, x − y + z = m,
vants : a) ax + by + cz = d, b) x + my − z = 1,
2 2 2 2
a x+b y+c z =d . x − y − z = 1.
1 1 1 0
1-) Calculer U et en déduire une relation simple liant U , U et I4 .
2 2
2-) Soient (αk ) et (βk ) les suites dénies par α0 =, β0 = 0, αk+1 = 3βk , βk+1 = αk + 2βk .
Démontrer que, pour tout k ∈ N, on a
αk βk βk βk
βk αk βk βk
Uk = βk βk αk βk
βk βk βk αk
3-)Démontrer que, pour tout k ∈ N, on a βk+2 = 2βk+1 + 3βk .
3k −(−1)k k k
4-)En déduire que, pour tout k ∈ N, βk = 4
et αk = 3 +(−1)
4
.
1) s
et 2tet (t2 − 4t)et e 2ses (s2 − 4s)es
R(t)R(s) = 0 et tet 0 es ses .
0 0 et 0 0 es
Comme (s2 − 4s) + 2ts + (t2 − 4t) = t2 + s2 + 2ts − 4(t + s) = (t + s)2 − 4(t + s), alors,
on vérie facilement que R(t)R(s) = R(t + s) pour tous nombres
réelst et s.
1 0 0
2) Soit t ∈ R. On a R(t)R(−t) = R(−t)R(t) = R(0) = 0 1 0 = I3 ; la matrice
0 0 1
unité carrée d'ordre 3, alors la matrice R(t) est inversible et son inverse est la matrice
R(−t).
1
1
1 a
a
Exercice 1.31 Soit n ≥ 2 et soient a ∈ R − {0}, U = .. et V =
.. .
. .
1 an−1
an−1
1) Calculer la matrice H = U t V puis t V U , où t V désigne la transposée de V .
2) Montrer que H 2 = nH (remarquer que H 2 = U ( t V U ) t V ).
3) Pour tout λ ∈ R, on considère la matrice A = H − λIn , où In désigne la matrice unité
carrée d'ordre n. Exprimer A2 en fonction de A et In .
4) En déduire que si λ 6= 0 et λ 6= n, alors A est inversible. Pour λ 6= 0 et λ 6= n,
déterminer A−1 .
Soient a1 , a2 , · · · , an des nombres réels tous non nuls. Pour tout entier n ≥ 2 et tout
nombre réel λ, considérons la matrice An (λ) à n + 1 lignes et n + 1 colonnes dénie par :
1 −a1 −a2 · · · · · · −an
a1 λ 0 ··· ··· 0
... ..
a2 0 λ .
An (λ) = .
.. .
.. . .. . . . . . . .. .
.
. .. ... ...
.. .
0
an 0 ··· ··· 0 λ
26
CHAPITRE 2. ESPACES VECTORIELS ET APPLICATIONS LINÉAIRES 27
Exemple 2.2 1) (R, +, ·) est espace vectoriel sur le corps R. En fait, tout corps com-
mutatif est un espace vectoriel sur lui-même.
2) K[X] l'anneau des polynômes à coecients dans K est un espace vectoriel sur K . La
loi de composition externe n'est rien d'autre que la multiplication de l'anneau K[X].
3) Soient E et F deux K -e.v., alors (E × F, +, ·) est un K -e.v. appelé espace vectoriel
produit de E par F , et où la loi interne + et la loi externe · sont dénies par :
x = λ1 x1 + λ2 x2 + · · · + λn xn .
2) Si A est une partie non vide quelconque de E , un vecteur x de E est dit combinaison
linéaire des éléments de A s'il existe une partie nie B de A, telle que x soit combinaison
linéaire des éléments de B .
2.3.0.1 Notation :
Pour toute partie non vide A de E , on note par A l'ensemble des combinaisons linéaires
des éléments de A.
Remarques 2.7
1) Si A est une partie non vide de E , alors A est un sous-espace vectoriel de E ; appelé
le s-e.v. engendré par A. On dit aussi que A est une partie ou un système de générateurs
de A. En fait, A est le plus petit s-e.v. de E contenant A.
2) Si A = {x1 , x2 , · · · , xn } alors le s-e.v. engendré par A est :
A = {λ1 x1 + λ2 x2 + · · · + λn xn | λi ∈ K}.
exemple :
Soit n un entier naturel et soit Kn [X] le sous-espace vectoriel de K[X] formé des poly-
nômes de degré inférieur ou égal à n. Comme tout élément P ∈ Kn [X] s'écrit sous la
forme P = a0 + a1 X + · · · + an X n , où les ai ∈ K , c.à.d. que P est une combinaison linéaire
des éléments de A = {1, X, · · · , X n }, alors A est une partie génératrice de Kn [X]. Ainsi,
A = Kn [X].
Dénition 2.8 Soit E un K -e.v. et soient x1 , x2 , · · · , xn des éléments de E , on dit que
x1 , x2 , · · · , xn sont linéairement dépendants ou liés s'il existe des scalaires λ1 , λ2 , · · · , λn ∈
K non tous nuls tels que :
λ1 x1 + λ2 x2 + · · · + λn xn = 0.
∀λ1 , λ2 , · · · , λn ∈ K : λ1 x1 + λ2 x2 + · · · + λn xn = 0 ⇒ λi = 0 ∀1 ≤ i ≤ n.
Exemple 2.9
1) Dans R2 , la partie {(1, 0), (0, 1)} est libre.
2) Dans K[X], la partie {1, X, · · · , X n } est libre pour tout entier n ∈ N, car l'égalité
a0 + a1 X + · · · + an X n = 0 implique ai = 0 pour tout 0 ≤ i ≤ n.
3) Toute partie nie, non vide, et contenant le vecteur nul est liée.
Dénition 2.10
Soit E un K -e.v. et soient x1 , x2 , · · · , xn ∈ E , on dit que B = {x1 , x2 , · · · , xn } est une
base de E si B est à la fois une partie libre et une partie génératrice de E .
Exemple 2.11
1) Soit n ∈ N∗ et soient dans K n les n vecteurs
e1 = (1, 0, · · · , 0), e2 = (0, 1, 0, · · · , 0), · · · , en = (0, · · · , 0, 1), alors on vérie que la
partie B = {e1 , e2 , · · · , en } est une base qu'on appelle la base canonique de K n .
2) Pour tout n ∈ N, la partie B = {1, X, · · · , X n } est une base qu'on appelle la base
canonique du K -e.v. Kn [X].
Théorème 2.12
Le système {e1 , e2 , · · · , en } est une base de l'e.v. E si et seulement si tout élément x de
E s'écrit de manière unique comme combinaison linéaire des (ei )1≤i≤n .
Démonstration :
⇒) x = λ1 e1 + · · · + λn en = µ1 e1 + · · · + µn en ⇒ (λ1 − µ1 )e1 + · · · + (λn − µn )en = 0 ⇒
λi = µi ∀1 ≤ i ≤ n car les (ei ) sont libres.
⇐) D'après l'hypothèse les (ei ) forment un système générateur de E .
Liberté : Soit λ1 e1 + · · · + λn en = 0, mais 0E = 0e1 + · · · + 0en . Comme l'écriture est
unique, on a λ1 = · · · = λn = 0.
Si B = {e1 , · · · , en } est une base du K -e.v. E , alors pour tout élément x de E il existe
des scalaires λ1 , λ2 , · · · , λn ∈ K uniques tels que :
x = λ1 e1 + λ2 e2 + · · · + λn en .
Dénition 2.13
On dit que le K -e.v. E est de dimension nie sur le corps K , s'il existe une partie nie
G ⊂ E qui engendre E .
Dire que E est de dimension nie revient à dire qu'il existe des vecteurs x1 , x2 , · · · , xn de
E tels que tout élément x ∈ E s'écrit sous la forme :
x = λ1 x1 + λ2 x2 + · · · + λn xn ,
où les λi ∈ K .
Théorème 2.14
Soit E un K -e.v., B = {e1 , · · · , en } une base de E , et soit
A = {v1 , · · · , vm } une partie de E où les vi sont distincts deux à deux. Si m>n, alors A
est une partie liée.
Démonstration :
Supposons A libre.
On a v1 = λ1 e1 + λ2 e2 + · · · + λn en . On peut supposer λ1 6= 0, on a :
e1 = λ−11 (v1 − λ2 e2 − · · · − λn en ), d'où le s-e.v. F engendré par {v1 , e2 , · · · , en } contient
e1 , par suite F = E .
Montrons par récurrence que {v1 , v2 , · · · , vn } engendre E .
Hypothèse de récurrence : {v1 , · · · , vr , er+1 , · · · , en } engendre E . On peut donc écrire
vr+1 = µ1 v1 + · · · + µr vr + µr+1 er+1 + · · · + µn en . Les µi pour i ≥ r + 1 ne peuvent pas
être tous nuls car A est supposée libre. Sans perte de généralité on peut supposer que
µr+1 6= 0. On aura alors, er+1 = µ−1 r+1 (vr+1 − µ1 v1 − · · · − µr vr − µr+2 er+2 − · · · − µn en ),
et le s-e.v. G engendré par {v1 , · · · , vr+1 , er+2 , · · · , en } contient er+1 , donc G = E .
Finalement, {v1 , v2 , · · · , vn } engendre E , mais m > n et vm s'écrira comme combinaison
linéaire des vi pour 1 ≤ i ≤ n, c.-à-d. qu'il existe λ1 , λ2 , · · · , λn ∈ K tels que vm =
λ1 v1 + λ2 v2 + · · · + λn vn , ce qui est absurde car A est supposée libre.
Théorème 2.16
Soit E un K -e.v. qui admet une base formée de n éléments, alors toute autre base de E
contient exactement n éléments.
Démonstration :
Soit B = {e1 , · · · , en } une base de E et soit C = {v1 , · · · , vm } une autre base de E ,
alors m > n est impossible, donc m ≤ n. De même n > m est impossible, d'où n ≤ m.
Finalement, n = m.
Dénition 2.17
Soit E un K -e.v. qui admet une base de n éléments. On dit que n est la dimension de E
sur K , et on note dimK E = n ou dim E = n.
Exemple 2.18
1) Soit n ∈ N∗ , alors dimK K n = n, car
B = {(1, 0, · · · , 0), (0, 1, 0, · · · , 0), · · · , (0, · · · , 0, 1)} est une base de K n .
2) dimK K = 1, car {1K } est une base de K .
3) dimR C = 2 puisque {1, i} est une base de C en tant qu'e.v. sur R mais dimC C = 1.
4) Soit n ∈ N, alors dim Kn [X] = n + 1, car B = {1, X, · · · , X n } est une base de Kn [X]
sur K .
5) On convient que dimK {0} = 0.
Théorème 2.19 (Théorème de la base incomplète) :
Soit E un e.v. sur K , dim E = n, et soit {x1 , · · · , xr } un famille libre de E , alors on peut
trouver des vecteurs xr+1 , · · · , xn tels que {x1 , · · · , xr , xr+1 , · · · , xn } soit une base de E .
Exemble : Dans R3 la partie A = {(1, 1, 0), (1, −1, 0)} est libre. Prenons la base cano-
nique B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}. On a :
(1, 0, 0) = 12 [(1, 1, 0) + (1, −1, 0)] ∈ A.
(0, 1, 0) = 12 [(1, 1, 0) − (1, −1, 0))] ∈ A.
Donc {(1, 1, 0), (1, −1, 0), (0, 0, 1)} est une base de R3 .
Propriétés 2.20
Soit E un K -e.v. de dimension n et soit B une partie de E contenant exactement n
éléments, alors les propriétés suivantes sont équivalentes :
i) B est une base de E .
ii) B est une partie génératrice de E .
iii) B est une partie libre de E .
Théorème 2.22
E =F +G
E =F ⊕G⇔ et
F ∩ G = {0}.
Démonstration :
⇒) Si E = F ⊕ G alors E = F + G.
Soit x ∈ F ∩ G, alors x = x + 0 = 0 + x et d'après l'unicité de l'écriture, on a x = 0.
⇐) Il sut de montrer l'unicité de l'écriture. Soit x ∈ E tel que x = u + v = u0 + v 0 avec
u, u0 ∈ F et v, v 0 ∈ G, alors u − u0 = v 0 − v ∈ F ∩ G = {0}, d'où u = u0 et v = v 0 .
Théorème 2.23
Soit E un K -e.v. de dimension n ≥ 1 et soit F un s-e.v. de E , alors il existe un s-e.v. G
de E tel que E = F ⊕ G. G est appelé un supplémentaire de F dans E .
Démonstration :
Il est clair que r = dim F ≤ n.
Si r = n, il sut de prendre G = {0}, et si r = 0, il sut de prendre G = E .
On suppose 0 < r < n, et soit {x1 , x2 , · · · , xr } une base de F , c'est en particulier une
partie libre de E qu'on peut completer en une base de E par des vecteurs xr+1 , · · · , xn .
Si on prend G le s-e.v. engendré par xr+1 , · · · , xn , on vérie alors que E = F ⊕ G.
Théorème 2.24
Soit E un K -e.v. de dimension n et soient F et G deux s-e.v. de E tels que E = F ⊕ G,
alors dim E = dim F + dim G.
Démonstration :
Soient {x1 , x2 , · · · , xr } une base de F , et {y1 , · · · , ys } une base de G. Tout élément x
de E s'écrit de manière unique sous la forme x = u + v avec u ∈ F et v ∈ G, on en déduit
que x s'écrit de manière unique sous la forme x = λ1 x1 + · · · + λr xr + µ1 y1 + · · · + µs ys .
Donc {x1 , x2 , · · · , xr , y1 , · · · , ys } est une base de E , d'où r + s = n.
Propriétés 2.26
1) f est une application linéaire de E dans F si et seulement si ∀x, y ∈ E, ∀λ, µ ∈ K :
f (λx + µy) = λf (x) + µf (y).
2) Si f est un isomorphisme f −1 est aussi un isomorphisme.
3) La composée de deux applications linéaires est une application linéaire.
f: E −→ K n
n
X
x= λi ei 7−→ (λ1 , · · · , λn ),
i=1
−→ K[X]
2) f : K[X]
P 7−→ P 0 ,
est un endomorphisme de K[X], c.à.d. que la dérivation
est une application linéaire.
Dénition 2.28
Soit f : E → F une application linéaire.
i) On appelle noyau de f , et on note ker f , l'ensemble {x ∈ E | f (x) = 0F }.
ii) On appelle image de f l'ensemble Im f = {f (x) | x ∈ E}.
Démonstration :
1) ⇐) Soient x et y ∈ F tels que f (x) = f (y), alors f (x − y) = f (x) − f (y) = 0F , d'où
x − y ∈ ker f = {0E }, par suite x = y . Ainsi, f est injective.
⇒) Soit x ∈ ker f , alors f (x) = 0F = f (0E ). Comme f est injective, alors x = 0E , d'où
ker f = {0E }.
2) Evident.
Théorème 2.30
Soient E un K -e.v. de dimension nie, F un K -e.v. et f une application linéaire de E
dans F . Alors Im f est de dimension nie et :
Démonstration :
Soit {e1 , · · · , en } une base de E , alors {f (e1 ), · · · , f (en )} est une partie génératrice nie
de f (E) = Im f , par suite, Im f est de dimension nie.
Si Im f = {0F }, alors f est l'application nulle, par suite ker f = E , et l'égalité est
vériée.
Si ker f = {0}, alors f est injective, comme {e1 , · · · , en } est en particulier une partie
libre, alors {f (e1 ), · · · , f (en )} est libre, c'est donc une base de Im f , et l'égalité est encore
vériée.
Supposons maintenant que q = dim ker f > 0 et s = dim Im f > 0.
Soit {w1 , · · · , ws } une base de Im f , il existe alors v1 , · · · , vs ∈ E tels que f (vi ) = wi .
Soit {u1 , · · · , uq } une base de ker f . Montrons que B = {u1 , · · · , uq , v1 , · · · , vs } est une
base de E .
Liberté : soient λi , µj ∈ K tels que :
λ1 v1 + · · · + λs vs + µ1 u1 + · · · + µq uq = 0 (∗).
Dénition 2.31
1) Soient E un K -e.v. de dimension nie, F un K -e.v. et f : E → F une application
linéaire. On appelle rang de f , et on note rg f , la dimension de Im f .On a ainsi, rg f =
dim Im f .
2) Soient x1 , x2 , · · · , xn des vecteurs de E . On appelle rang de la famille (xi )1≤i≤n la
dimension du sous-espace vectoriel engendré par cette famille.
Remarques 2.32
1) rg f ≤ inf(dim E, dim F ).
Théorème 2.33
Soient E et F deux K -e.v. de dimension nie tels que dim E = dim F = n ≥ 1, et soit
f : E → F une application linéaire. Alors les propriétés suivantes sont équivalentes
Démonstration :
D'après les remarques sur le rang on a 3) ⇔ 2) ⇔ 4). D'autre part 1) ⇒ 2) et 2) ⇒ 4),
par suite 2) ⇒ 1).
Exercice : Soit E et F deux K -e.v. de dimension nie. Montrer que E et F sont isomorphes
si et seulement si dim E = dim F . E et F sont dits isomorphes s'il existe un isomorphisme
de E dans F .
Propriétés 2.34
(Mn,m (K); +, .) est un e.v. sur K de dimension nm.
Pour tous 1 ≤ i ≤ n et 1 ≤ j ≤ m, posons Eij la matrice de type (n, m) dont tous les
coecients sont nuls, sauf celui se trouvant à l'intersection de la iième ligne et la j ième
colonne qui vaut 1. On vérie facilement que B = {Eij | 1 ≤ i ≤ n et 1 ≤ j ≤ m} est
une base appelée la base canonique de Mn,m (K) sur K .
Exemple 2.35
Soit f : R2 → R3 dénie par f (x, y) = (x, 2y, x − y). Soit B = {e1 , e2 } la base canonique
de R2 et C = {f1 , f2 , f3 } la base canonique de R3 , alors f (e1 ) = f ((1, 0)) = (1, 0, 1) =
f1 + f3 , f (e2 ) = f ((0, 1)) = (0, 2, −1) = 2f2 − f3 , d'où la matrice de f dans les bases B
et C est :
1 0
M (f, B, C) = 0 2 .
1 −1
Dénition 2.36
Soient x1 , x2 , · · · , xs des vecteurs d'un K -e.v. E de dimension n sur K . On appelle
rang du système {x1 , x2 , · · · , xs }, et on note rg(x1 , x2 , · · · , xs ), la dimension du sous-
espace vectoriel engendré par les (xi ), (1 ≤ i ≤ s).
Théorème 2.37
Soit A une matrice de type (m, n) à coecients dans K , alors :
1) rg(A) = rg(t A).
2) Le rang de A est le rang de ses vecteurs colonnes ; c'est aussi le rang des ses vecteurs
lignes.
3) Soient E un K -e.v. de dimension n, F un K -e.v. de dimension m, B une base de E ,
C une base de F , f une application linéaire de E dans F et A la matrice de f par rapport
à B et C , alors :
rg(f ) = rg(A).
Exercice 2.38
1 −1 1 −1 1
2 −1 3 0 4
A=
3 −2 2
1 1
1 0 1 2 1
données
de xdans la base B et
y1
y2
Y =
..
la matrice unicolonne formée par les coordonnées de x dans la base B 0 ,
.
yn
on a d'après l'égalité (?) : X = P Y , cette égalité s'appelle la formule de changement de
coordonnées et la matrice P s'appelle par dénition la matrice de passage de la base B à
la base B 0 .
Remarques 2.39
1) La matrice :
p11 p12 · · · p1n
p21 p22 · · · p2n
P = .. .. .. . ,
. . . ..
pn1 pn2 · · · pnn
vérie en fait P = M (idE , B 0 , B). On en déduit que P est inversible et la matrice de
passage de B 0 à B est P −1 = M (idE , B, B 0 ).
2) Si E et F sont deux K -e.v. tels que dim E = n, dim F = m, B et B 0 deux bases de
E , C et C 0 deux bases de F . Si on désigne par P la matrice de passage de B à B 0 , par Q
la matrice de passage de C à C 0 , et f : E −→ F une application linéaire, alors d'après la
deuxième propriété fondamentale on a :
M (f, B 0 , C 0 ) = M (idF of oidE , B 0 , C 0 ) = M (idF , C, C 0 )M (f, B, C)M (idE , B 0 , B),
d'où la relation :
M (f, B 0 , C 0 ) = Q−1 M (f, B, C)P.
En particulier, si E = F , B = C et B 0 = C 0 , alors P = Q et :
M (f, B 0 , B 0 ) = P −1 M (f, B, B)P,
ou, en d'autres termes :
M (f, B 0 ) = P −1 M (f, B)P.
Exemple 2.40 Soient e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1), B = {e1 , e2 , e3 } la base
canonique de R3 . Soient f1 = (1, −1, 1), f2 = (0, 2, 1) et f3 = (1, 2, −2). On vérie que
B 0 = {f1 , f2 , f3 } est une base de R3 . Nous avons :
f1 = e1 − e2 + e3 ,
f2 = 2e2 + e3 ,
f3 = e1 + 2e2 − 2e3 .
Donc la matrice de passage P de B à B 0 est :
1 0 1
P = −1 2 2 .
1 1 −2
f1 = e1 − e2 + e3
(
1 1
f2 = 2e2 + e3 ⇒ f3 −f1 = 3e2 −3e3 ⇒ 3 (f3 − f1 ) = e2 − e3 ⇒ f2 + (f3 −f1 ) = 3e2
f2 = 2e2 + e3 3
f3 = e1 + 2e2 − 2e3
. D'autre part,
2 1
e1 = f1 + e2 − e3 = f1 + f3 .
3 3
Ainsi, la matrice de passage P de B à B est :
−1 0
2 1 2
−
3 9 9
−1
P = 0
1 1 .
3 3
1 1 −92
3 9
Si on utilise la méthode de la comatrice, on obtient :
1 0 1 1 0 0
det P = −1 2 2 = −1 2 3 = −9.
1 1 −2 1 1 −3
−6 0 −3
La comatrice associée à P est com(P ) = 1 −3 −1 .
−2 −3 2
Donc
2
− 19 2
−6 1 −2 3 9
1 t 1
1
1
−1
com(P ) =
P = · 0 −3 −3
= 0 .
det P −9
3 3
−3 −1 2 1 1 − 92
3 9
Exercice 2.41
Soit la matrice
−1 1 1
A = 1 −1 1 .
1 1 −1
On note par f l'endomorphisme de R3 dont la matrice par rapport à la base canonique
B = {e1 , e2 , e3 } de R3 est A. Cela signie que f (e1 ) = (−1, 1, 1), f (e2 ) = (1, −1, 1) et
f (e3 ) = (1, 1, −1).
Soient les vecteurs f1 = (1, 0, −1), f2 = (0, 1, −1) et f3 = (1, 1, 1). On vérie facilement
que B 0 = {f1 , f2 , f3 } est une base de R3 . La matrice de passage P de B à B 0 est :
1 0 1
P = 0 1 1 .
−1 −1 1
2 −1 −1
Un simple calcul permet de voir que : P −1 = 31 · −1 2 −1 .
1 1 1
−4 2 2 −2 0 0
De plus : P −1 A = 13 · 2 −4 2 , et P −1 AP = 0 −2 0 = A0 ; où A0 est
1 1 1 0 0 1
la matrice de l'endomorphisme f dans la base B . En fait, on peut vérier directement ce
0
2.12 Exercices.
Exercice 2.42
Soit R?+ muni de la loi interne déni par a ⊕ b = a.b pour tout a, b ∈ R?+ et de la loi
externe ⊗ telle que λ ⊗ a = aλ pour tout a ∈ R?+ et λ ∈ R. Montrer que (R?+ , ⊕, ⊗) est
un R espace vectoriel.
Exercice 2.43
Déterminer les sousespace vectoriels parmi les ensembles suivants :
1. A = {(x, y, z) ∈ R3 ; 2x + y − 3z = 0}.
2. B = {{(x, y, z) ∈ R3 ; x − y + z = 1} ∩ {(x, y, z) ∈ R3 ; x + y + 5z = 0}.
3. C = {{(x, y, z) ∈ R3 ; x − y + z = 0} ∪ {(x, y, z) ∈ R3 ; x + y + 5z = 0}.
Exercice 2.44
Soient les ensembles F = {(x, y, z) ∈ R3 /x + y − z = 0} et G = {(a − b, a + b, a − 3b)/a, b ∈
R}.
1. Montrer que F et G sont des sous espaces vectoriels de R3 .
2. Déterminer F ∩ G
Exercice 2.45
On pose f1 , f2 , f3 , f4 : [0, 2π] → R les fonctions dénies par f1 (x) = sin(x), f2 (x) =
x sin(x), f3 (x) = cos(x), f4 (x) = x cos(x). Montrer que la famille (f1 , f2 , f3 , f4 ) est libre.
Exercice 2.46
Soient E un K-espace vectoriel de dimension 3 et B = (e1 , e2 , e3 ) une base de E . u =
e1 + 2e3 , v = e3 − e1 , w = e1 + 2e3 . Montrer que B 0 = (u, v, w) est une base de E . Soit
x = x1 e1 + x2 e2 + x3 e3 un vecteur de E , exprimer les coordonnées de x dans la base B 0 .
Exercice 2.47
Soit E = {f ; f (x) = (ax2 + bx + c)e3x ; (a, b, c) ∈ R3 }. Montrer que (E, +, .) est un R-
espace vectoriel. On considére la famille B = (f0 , f1 , f2 ) avec f0 (x) = e3x , f1 (x) = xe3x
et f2 (x) = x2 e3x . Montrer que B est une base de E . Prouver que f 0 ∈ E et trouver les
composantes de f 0 dans B pour f ∈ E .
Exercice 2.48
Soient F = {f ∈ C 1 (R, R)/f (0) = f 0 (0) = 0} et
G = {x 7→ ax + b/a, b ∈ R}. Montrer que F et G sont des sous espaces vectoriels
supplémentaires de C 1 (R, R).
Exercice 2.49
Soient E un espace vectoriel sur K et ϕ une application linéaire de E dans E . On suppose
que Ker ϕ ∩ Imϕ = {0}. Montrer que si x ∈ / Ker ϕ alors pour tout n ∈ N, ϕn (x) 6= 0.
Exercice 2.50
Soient E un espace vectoriel sur K et f et g deux endomorphismes de E tels que f ◦ g =
g ◦ f . Montrer que Ker f et Imf sont stables par g .
Exercice 2.51
Soit E un espace vectoriel sur un corps commutatif K . On appelle projecteur de E tout
endomorphisme p de E tel que p ◦ p = p. On désigne par IE l'application identité de E
(on notera que c'est un projecteur de E ).
1. Montrer que p est un projecteur si et seulement si IE − p est un projecteur de E .
Quelles relations y a-t-il entre les images et les noyaux de p et IE − p ?
2. Montrer que si p est un projecteur de E , alors E = Im p ⊕ Ker p.
3. Montrer que si p est un projecteur de E et si f est un endomorphisme de E tel que
f (Im p) ⊂ Im p et f (Ker p) ⊂ Ker p, alors f ◦ p = p ◦ f.
Exercice 2.52
Soit E un espace vectoriel sur K . Soit f ∈ L(E) tel que Im(f ) soit une droite vectorielle
et f 2 6= 0. Démontrer que Ker(f ) ∩ Im(f ) = {0}. En déduire que Ker(f ) ⊕ Im(f ) = E .
Exercice 2.53
Soit E1 et E2 deux sous-espaces vectoriels d'un espace vectoriel E sur K . Soit f : E1 ×
E2 7→ E l'application dénie par f (x1 , x2 ) = x1 + x2 .
1. Montrer que f est linéaire.
2. Montrer que Ker f = {(x1 , −x1 ) : x1 ∈ E1 ∩ E2 }.
3. Montrer que Ker f et E1 ∩ E2 sont isomorphes.
4. Montrer que f a pour image E1 + E2 .
5. Dans le cadre de la dimension nie, déduire de ce qui précède la formule :
Exercice 2.54
Les familles suivantes sont-elles libres ?
1. v1 = (1, 0, 1), v2 = (0, 2, 2) et v3 = (3, 7, 1) dans R3 .
2. v1 = (1, 0, 0), v2 = (0, 1, 1) et v3 = (1, 1, 1) dans R3 .
3. v1 = (1, 2, 1, 2, 1), v2 = (2, 1, 2, 1, 2), v3 = (1, 0, 1, 1, 0) et v4 = (0, 1, 0, 0, 1) dans R5 .
Exercice 2.55
On considère les deux sous-ensembles de R4 suivants :
• F est l'ensemble des vecteurs (v1 , v2 , v3 , v4 ) qui satisfont v1 = v2 et v3 = v4 ,
• G est l'ensemble des vecteurs (w1 , w2 , w3 , w4 ) qui satisfont w1 + w2 − w3 = 0.
1. Montrer que F et G sont des sev de R4 .
2. Déterminer une base de F et une base de G.
Exercice 2.56
Soient v~1 = (2x, y, x + y), ~(v2 ) = (x − y, x, y) et P le sous-espace vectoriel de R3
engendré par v~1 et v~2 . Déterminer l'ensemble des couples (x, y) tels que le vecteur (1, 2, 3)
appartienne à P .
Exercice 2.57
Déterminer une base et la dimension de chacun des espaces vectoriels suivants :
• E1 = {(x, y, z) ∈ R3 ; x − 2y + z = 0}.
• E2 = {(x, y, z) ∈ R3 ; x = 2y = 3z}.
• E3 = {(x, y, z) ∈ R3 ; x + y = 0 et y + z = 0}.
• E4 = {(x, y, z, t) ∈ R4 ; x + y + z = 0, x + y = 0 et z + t = 0}.
• E5 = {(un ) ∈ RN ; ∀ n ∈ N, un+2 = aun+1 + bun } où a, b sont deux réels xés.
Exercice 2.58
Soit E un K -espace vectoriel et f ∈ L(E). Si x ∈ E et k ∈ N∗ vérient f k (x) = 0 et
f k−1 (x) 6= 0, montrer que (x, f (x), . . . , f k−1 (x)) est une famille libre.
Dans les deux exercices suivants on considère N réels (N ≥ 1), (ai )1≤i≤N ∈ RN , distincts
deux à deux, c'est-à-dire : pour tout indices 1 ≤ i 6= j ≤ N on a ai 6= aj .
Exercice 2.59
Pour tout a ∈ R, on note ϕa la fonction de R dans R qui à x associe |x − a|.
Montrer que la famille (ϕai )1≤i≤N est libre.
Exercice 2.60
Pour tout a ∈ R, on note ψa la fonction de R dans R qui à x associe eax . Montrer que la
famille (ψai )1≤i≤N est libre.
Exercice 2.61
Pour tout a ∈ R on note χa , la fonction charactéristique de [a, +∞[.
Rappel χa : R → R elle vaut 1 sur [a, +∞[ et est nulle ailleurs.
Montrer que la famille (χai )1≤i≤N est libre.
Exercice 2.62
Montrer que les vecteurs (a, b) et (c, d) forment une base de R2 si et seulement si ad−bc 6=
0.
Exercice 2.63
Soit V ⊂ C ∞ (R, R) le R-espace vectoriel engendré par les fonctions
f1 = x, f2 = ex , f3 = xex et f4 = (x + 1)ex .
Exercice 2.64
Soit
E = {fa,b (: x 7→ (ax + b)e2x ) ∈ A(R, R) : a, b ∈ R}.
1. Démontrer que E est un R-espace vectoriel en donner une base.
2. Démontrer que l'ensemble F des fonctions fa,b monotones sur R est un sous-espace
vectoriel de E . En donner une base.
Exercice 2.65
Soit V le sous-espace vectoriel de R4 engendré par les vecteurs
Exercice 2.66
Considérons les deux sous-espaces vectoriels
Exercice 2.68
Soit e1 , e2 , e3 , e4 la base canonique de R4 . Soient E = Vect(e1 , e2 +e3 +e4 ), F = Vect(e2 , e1 +
e3 + e4 ), G = Vect(e3 , e1 + e2 + e4 ) et H = Vect(e4 , e1 + e2 + e3 ).
Exercice 2.69
Soit a un paramètre réel. On pose X1 = (1, 1, 1, 1), X2 = (−a, 2, 3, a) et X3 = (a2 , 4, 9, a2 ).
Calculer le rang de la famille (X1 , X2 , X3 ) en fonction de a.
Exercice 2.71
Montrer qu'une application f : R2 → R est R-linéaire si et seulement si elle est de la
forme f (x, y) = ax + by avec a, b ∈ R.
Exercice 2.72
Soit E un espace vectoriel de dimension nie sur le corps commutatif K , et soit u un
endomorphisme de E . Montrer que les conditions suivantes sont équivalentes
1. Ker u = Im u
2. u2 = 0 et dim Ker u = dim Im u = dim E/2.
K désigne R ou C.
3.1 Polynômes
Dénition 3.1
On
Pn appellei polynôme à coecients dans K en l'indéterminée X tout objet noté P (X) =
a
i=0 i X = a 0 + a 1 X + a 2 X 2
+ .... + an X n oé les coecients (ai )0≤i≤n sont des éléments
de K.
On note K[X] = {polynômes é coecients dans K}.
Dénition 3.2
1. Deux polynômes P (X) = ni=0 ai X i et Q(X) = ni=0 bi X i de K[X] sont dits égaux
P P
ssi ils ont les mêmes coecients. Ainsi :
P (X) = Q(X) ⇔ ∀i ∈ {0, 1, 2, 3, ....n}, ai = bi .
2. Soit c ∈ K, on appelle polynôme constant égal à c le polynôme
c + 0X + .... + 0X n = c.
3. On appelle monôme, tout polynôme de la forme P (X) = aX n .
4. P (X) = i=0 ai X est dite pair (resp impair) ssi ∀p ∈ {0, 1, 2, 3, ....n}, on a :
Pn i
47
CHAPITRE 3. POLYNÔMES ET FRACTIONS RATIONNELLES 48
Théorème 3.4
(K[X], +, .) est un Kespace vectoriel dont l'élément neutre est le polynôme nul.
1. Soit P un polynôme non nul, on appelle degré de P le plus grand indice de ses
coecients non nuls, et on le note degP . Ainsi degP = n si et seulement si P (X) =
a0 + a1 X + a2 X 2 + ... + an X n avec an 6= 0, an s'appelle coecient dominant de P .
2. Par convention si P = 0, on pose degP = −∞.
Propriétés 3.6
Soient P, Q ∈ K[X] et λ ∈ K, on a :
1. deg(λ.P ) = degP si λ 6= 0 et deg(λ.P ) = −∞ si λ = 0.
2. deg(P + Q) ≤ max(degP, degQ) avec égalité lorsque degP 6= degQ.
3. deg(P Q) = degP + degQ.
Théorème 3.7
(K[X], +, ×) est un anneau commutatif d'élément nul le polynôme nul et d'élément unité
le polynôme constant égal à 1.
Théorème 3.9
Kn [X] est un espace vectoriel de K[X] de dimension n+1 dont la famille B = (1, X, X 2 , ....., X n )
est une base et on a : dim K[X] = +∞.
3. On appelle racine (ou zero) d'un polynôme P tout x ∈ K tel que P (x) = 0.
Fonction polynomiale
Dénition 3.11
On appelle fonction polynomiale associée é P ∈ K[X] dénie sur D ⊂ K, l'application
Pe : D → K tq x 7→ Pe(x) = P (x)
Exercice 3.12
La fonction polynomiale associée é P (X) = X 3 +X 2 +1 est Pe : R → R tq x 7→ x3 +x2 +1.
Propriétés 3.13
Pour tout P, Q ∈ K[X], λ, µ ∈ K, on a :
1. λP^ e.
+ µQ = λPe + µQ
2. P
g e.
Q = Pe + Q
Dérivation
Dénition 3.14
Soit P (X) = nk=0 ak X k = a0 + a1 X + ..... + an X n , on appelle polynôme dérivé de P , le
P
polynôme noté P 0 déni par :
n
X
0
P (X) = kak X k−1 .
k=1
Propriétés 3.15
Soient P , Q deux polynômes de K[X] et λ ∈ K, on a :
1. (P + Q)0 (X) = P 0 (X) + Q0 (X).
2. (λP )0 (X) = λP 0 (X).
3. (P Q)0 (X) = P 0 (X)Q(X) + P (X)Q0 (X).
Formule de Taylor
Théorème 3.16P
Soient P (X) = n
k=0 ak X k et a ∈ K on a :
k=n
X P (k) (a)
P (X) = (X − a)k .
k=0
k!
1. On dit qu'un polynôme P est associe à un polynôme Q s'il existe λ ∈ K? tel que
P (X) = λQ(X)
2. Si P (X) = k=0 ak X = a0 + a1 X + ..... + an X avec an = 1 alors P est dite
Pn k n
unitaire.
Propriétés 3.25
Soient A et B deux polynômes non nuls.
1. Si A = BQ + R, avec degR < degB , alors Div(A, B) = Div(B, R).
2. Il existe un unique polynôme D unitaire, tel que Div(A, B) = Div(D). Ce polynôme
D est appelé pgdc des polynômes A et B et noté par D = pgdc(A, B) ou D = A ∧ B .
Preuve 3.26 1. Si D/A et D/B alors D/B etD/A − BQ donc D/R. De même, si
D/R et D/B , alors D/B et D/A.
2. Unicité : Si D1 et D2 sont solutions, alors Div(D1 ) = Div(D2 ) donc D1 /D2 et
D2 /D1 par suite D1 et D2 sont associés, si l'un est nul l'autre est nul aussi. Si ne
sont pas nuls ils sont unitaires et associés donc égaux.
Existence : Si A = B = 0, alors D = 0 convient. Sinon posons A0 = A et A1 = B et
on réalise les divisions euclidiennes suivantes tant que les restes obtenues sont non
nuls
A0 = A1 Q1 + A2 , degA2 < degA1 ,
A1 = A2 Q2 + A3 , degA3 < degA2 ,
A2 = A3 Q3 + A4 , degA4 < degA3 ,
et ainsi de suite jusqu'au ;
Am−1 = Am Qm + 0.
ce processus s'arrête puisque degA1 > degA2 > ... > .. et ces quantités sont des
entiers naturels. On a :
Exercice 3.27
Déterminer D = pgdc(X 3 + X 2 − 2, X 3 + X − 2)
Propriétés du pgdc
Propriétés 3.30
1. A ∧ B = B ∧ A.
2. A/B ⇒ A ∧ B est associé é A.
3. Si P/A et P/B alors P/pgdc(A, B)
4. Si C est unitaire alors pgdc(AC, BC) = pgdc(A, B)C .
Théoréme de Bézout
Théorème 3.33
On a équivalence entre :
1. A et B sont premiers entre eux.
2. ∃U, V ∈ K[X] tel que AU + BV = 1.
Théoréme de Gauss
Théorème 3.34
Si A/BC et A ∧ B = 1 alors A/C .
Théorème 3.36
Si A/C , B/C et A ∧ B = 1 alors AB/C .
Preuve 3.37 A/C donc il existe D tq : AD = C , d'autre part B/C , alors il existe Q tq :
BQ = C , par suite AD = BQ céd A/BQ or A ∧ B = 1 ce qui montre que A/Q et donc
il existe R tq : AR = Q et ABR = C d'oé le résultat.
Dénition 3.38
On dit qu'un polynôme non constant P ∈ K[X] est irréductible dans K[X] si ses seuls
diviseurs sont les polynômes constants non nuls et les polynômes associés é P .
Exercice 3.39
Propriétés 3.40
Les polynômes irréductibles de R[X] sont :
1. Les polynômes de degré 1.
2. les polynômes de degré 2 de discriminant < 0.
Exercice 3.41
Décomposer en éléments simples dans R[X] les polynômes suivants :X 2 −1, X 2 +1, X 3 −1,
X 3 + 1 , X 4 + 1.
Théorème 3.42
Tout polynôme non constant de C[X] a une racine dans C.
Propriétés 3.43
Soit P (X) = i=n a X i ∈ C[X] alors il existe α1 , ....., αk ∈ C et n1 , ....nk ∈ N tels que
P
Qi=k i=0 i
P (X) = an i=1 (X − αi )ni .
Remarque 3.44 Les polynômes irreductibles de C[X] sont ceux de degré un.
Exercice 3.45
Décomposer en éléments simples dans C[X] les polynômes suivants :X 2 −1, X 2 +1, X 3 −1,
X 3 + 1 , X 4 + 1.
Dénition 3.46
Soit P ∈ K[X] tel que P 6= 0 et a ∈ K. On appelle ordre de multiplicité de a en tant que
racine de P le plus grand α ∈ N? tel que (X − a)α /P.
Théorème 3.48
Soient P ∈ K[X] non nul, a ∈ K et α ∈ N? . On a équivalence entre :
1. a racine de P de multiplicité α,
2. (X − a)α /P et (X − a)α+1 ne divise pas P ,
Dénition 3.49
Un polynôme P ∈ K[X] non constant est dit scindé dans K[X] si l'on peut écrire :
P = λ(X − x1 )....(X − xn ) avec λ ∈ K? et x1 , x2 , ......xn ∈ K.
Exercice 3.50
P = X 2 + 1 est scindé dans C[X] mais n'est pas scindé dans R[X]. Q = X 2 − 5X + 6 est
scindé dans R[X] et par suite scindé dans C[X].
Dénition 3.51
La valuation d'un polynôme non nul P (X) = a0 + a1 X + a2 X 2 + ... + an X n , notée val(P )
est le plus petit des entiers k tels que ak 6= 0. La valuation du polynôme nul est +∞.
Exercice 3.52
P (X) = 3 + X + X 2 , val(P ) = 0. Q(X) = −2X + X 2 + X 4 , val(Q) = 1.
Propriétés 3.53
Soient P, Q ∈ K[X], on a :
1. val(P + Q) ≥ inf(val(P ), val(Q)).
2. val(P Q) = val(P ) + val(Q).
Théorème 3.54
(Division suivant les puissances crissantes é l'ordre k ) Soient A et B deux poly-
nômes avec B(0) 6= 0, pour tout entier k , il existe un couple et un seul (Q, R) dans K[X]
vériant :
A(X) = B(X)Q(X) + X k+1 R(X), avec degQ ≤ k
Preuve 3.55 Unicié : Soient (Q1 , R1 ) et (Q2 , R2 ) deux solutions, alors A = BQ1 +
X R1 = BQ2 + X k+1 R1 , avec deg(Q1 ) ≤ k et deg(Q2 ) ≤ k , ainsi
k+1
B(Q1 − Q2 ) = X k+1 (R2 − R1 ), on sait que B(0) 6= 0 ce qui montre que val(B) = 0, par
suite si R1 − R2 6= 0, alors val(Q1 − Q2 ) = val(X k+1 (R1 − R2 )) ≥ k + 1 d'une part, d'autre
part val(Q1 − Q2 ) ≤ deg(Q1 − Q2 ) ≤ k ce qui est absurde, d'ou R1 = R2 et Q1 = Q2 .
Existence :On fait la division de A par B suivant les puissances croissantes jusqu'on
trouve un reste de valuation ≥ k + 1, céd on trouve un reste R1 (X) = X k+1 R(X) et donc
A = BQ + X k+1 R(X).
Exercice 3.56
Eectuer la division suivant les puissances croissantes é l'ordre 3 de A(X) = 2 + X par
B(X) = 1 + X + X 2 .
Dénition 3.57
On appelle fraction rationnelle é coecients dans K et en l'indéterminée X tout élément
représenté par un rapport B
A
formé par A, B ∈ K[X] avec B 6= 0. On note K(X) l'ensemble
de ces élément.
Exercice
2
3.58
X +X+1
X 3 −2
∈ K(X), si P ∈ K[X] alors P ∈ K(X).
Dénition 3.59
Soient F = A
B
,G = C
D
∈ K(X) et λ ∈ K, on a
1. F = G ⇔ AD = BC .
2. λ.F = λA
B
.
3. F + G = AD+BC
BD
et F G = AC
BD
.
Théorème 3.60
Théorème 3.61
1. Pour tout F ∈ K(X), il existe un unique couple (P, Q) ∈ K[X]2 tel que : Q est
unitaire, F = Q
P
et P ∧ Q = 1.
2. Pour tout F ∈ K(X), il existe un unique couple (G, R) ∈ K[X]2 tel que F = G + R
Q
avec degR < degQ.
3. Si a est une pôle de(racine du dénominateur) Q d'ordre de multiplicité α ; (X − a)α
divise Q alors il existe un unique couple (C, D) ∈ K(X) × K[X] tel que Q R
=C+
D
(X−a)α
avec degD < α.
4. Il existe un unique multi uplet (λ1 , λ2 , ....., λα ) ∈ Kα tel que :
= k=αk=1 (X−a)k .
D
P λk
(X−a)α
il sut de poser C = Q1 + T .
PU
k=α
D X λk
α
= k
.
(X − a) k=1
(X − a)
Exercice 3.64
Décomposer en éléments simples dans C(X) les fractions rationnelles suivantes : A =
X 4 +1
X 3 −1
, B = (X 24−1)2 .
Pour B = 4
(X 2 −1)2
, la décomposition théorique est :
a b c d
B= + 2
+ + .
X − 1 (X − 1) X + 1 (X + 1)2
Exercice 3.67
Décomposer en éléments simples dans R(X) les fractions rationnelles suivantes : F =
X 7 +2 X2
(X 2 +X+1)3
, G = (X 4 +X 2 +1)2 , H = X(X 2 +1)2 .
1
X 5 − X 4 + X 2 − X = (X 2 + X + 1)(X 3 − 2X 2 + X + 2) − 4X − 2.
X 5 −X 4 +X 2 −X X 3 −2X 2 +X+2
donc (X 2 +X+1)2
= − (X 24X+2
+X+1)2
+ X 2 +X+1
. De même X 3 − 2X 2 + X + 2 = (X 2 +
X 3 −2X 2 +X+2
X + 1)(X − 3) + 3X + 5, donc X 2 +X+1
= X3X+5
2 +X+1 + X − 3. En conclusion on a :
X +2 4X + 2 3X + 5
F = − + 2 + X − 3.
(X 2 + X + 1) 3 2
(X + X + 1) 2 X +X +1
Exercice 3.69
Décomposer en éléments simples dans R(X) les fractions rationnelles suivantes : A =
X2
X 2 −3X+2
, B = X(X−1)
X−2
2 , C = X 2 (X−1)2
X+1
X2 X 2 +1 X 2 +X−1
D= (X+1)3
, E= X(X−1)3
, F = X(X 2 +1)
, G= 1
X 2 (X 2 +X+1)
.
3.3 Exrcices
Exercice 3.70
Soient A, B et C des polynômes non nuls de K[X].
1. Montrer que A ∧ B = 1 et A ∧ C = 1 ⇔ A ∧ BC = 1.
2. Montrer que A ∧ B = 1 ⇔ An ∧ B m = 1, pour tout n, m ∈ N∗ .
3. Montrer que si a 6= b, alors (X − a) ∧ (X − b) = 1.
4. Déduire que (X − a)m ∧ (X − b)n = 1, pour tout n, m ∈ N∗ .
5. Soient a1 , a2 , ..., ap des éléments de K, distincts deux é deux. Montrer que (X −
ai )m ∧ (X − aj )n = 1, pour tout n, m ∈ N∗ et i 6= j .
6. Déduire que (X − ai )m ∧ k=p nk
= 1, k 6= i.
Q
k=1 (X − ak )
Dénition 4.1
Soient F et G deux s-e-v de E tel que E = F ⊕ G. Pour tout x ∈ E se décomposant en
x = y + z , avec y ∈ F et z ∈ G.
1. On appelle projecteur sur F parallélement é G l'endomorphisme p dénit par p(x) =
y . Le projecteur p vérie : p2 = p, Imp = F et ker p = G.
2. On appelle symétrie par rapport é F parallélement é G l'endomorphisme s dénit
par s(x) = y − z . La symétrie s vérie s2 = IdE .
Dénition 4.2
Soit f ∈ End(E) et F un s.e.v de E . On dit que F est un sous espace stable par f si
f (F ) ⊂ F .
Remarque 4.3 Les sous-espaces {0} et E sont stables par tout endomorphisme. Imf et
ker f sont stables par f .
59
CHAPITRE 4. RÉDUCTION DES ENDOMORPHISMES 60
L'ensemble des scalaires λ tels que f − λIE n'est pas injectif s'appelle le spectre de f et
se note Sp(f ).
Dénition 4.5
On appelle sous espace propre associé é la valeur propre λ de l'endomorphisme f ∈
End(E), le sous espace, noté Eλ déni par :
Exercice 4.6
Supposons que E = F ⊕ G avec F et G non réduits é {0E }. Soient p et s respectivements
le projecteur et la symétrie sur F parallélement é G. Alors nous avons :
1. Sp(p) = {0, 1}, E0 = ker p = G et E1 = Imp = F .
2. Sp(s) = {−1, 1}, E−1 = G et E1 = F .
Propriétés 4.7
Soit f ∈ End(E) on a les propriétés suivantes :
1. Si λ est une valeur propre de f alors Eλ est stable par f .
2. Si λ et µ deux valeurs propres distincts de f , alors Eλ et Eµ sont en somme directe.
3. Soit (x1 , x2 , ...., xp ) une famille de p vecteurs propres non nuls de E associés é des
valeurs propres λ1 , λ2 , ...., λp deux é deux distinctes, alors (x1 , x2 , ...., xp ) est une
famille libre.
Remarque 4.9 Si (x1 , x2 , ...., xn ) une famille de n vecteurs propres non nuls de E as-
sociés é des valeurs propres λ1 , λ2 , ...., λn deux é deux distinctes et dim E = n alors
(x1 , x2 , ...., xn ) est une base de E .
Propriétés 4.11
Si f est un endomorphisme d'un K-espace vectoriel E de dimension nie n, rapporté é
une base B et A est la matrice de f dans B alors Sp(f ) = SpK (A).
Preuve 4.12 La matrice de (f − λIE ) dans la base B est A − λIn , d'autre part (f − λIE )
n'est pas bijective donc A − λIn n'est pas inversible.
Dénition 4.13
Soit A ∈ Mn (K). On appelle polynôme caractéristique de A le polynôme de K[X] déni
par PA (X) = det(A − XIn ).
Dénition 4.15
Soit f ∈ End(E). Le polynôme caractéristique de la matrice de f dans une base B de E
ne dépend pas de la base choisie. On l'appelle polynôme caractéristique de f et on le note
Pf .
Propriétés 4.16
λ est une valeur propre de f ∈ End(E) si et seulement si Pf (λ) = 0 .
Remarque 4.18
SpK (A) = SpK (At ).
Si A et B sont deux matrices semblables alors SpK (A) = SpK (B).
Propriétés 4.19
Soit f ∈ End(E).
1. Soit F un s-e-v propre de E stable par f tel que g = f /F , la restriction de f é F .
Alors g ∈ End(F ) et Pg divise Pf .
2. Si λ ∈ K est une racine de Pf d'ordre de multiplicité m, alors on a : 1 ≤ dim(Eλ ) ≤
m
Preuve 4.20 1. F étant stable par f , alors g est bien endomorphisme de F . Soit
(e1 , e2 , ...., er ) une base de F complétée en une base
B = (e 1 , e2 , ....., er , er+1 , ....., en )
A C
de E . La matrice de f dans B a la forme :[f ]B = oé A = [g](e1 ,e2 ,....,er ) et
0 B
donc
Pf = det([f ]B − XIn ) = det(A − XIr ).det(B − XIn−r ).
2. Eλ est stable par f . Soit g = f /Eλ , d'aprés 1 on a : Pg divise Pf et comme g = λIEλ ,
on a :Pg = (λ − X)dimEλ , donc dimEλ ≤ m.
Dénition 4.21
Soit f ∈ End(E). On dit que f est diagonalisable s'il existe une base de vecteurs propres
de f . On dit que A ∈ Mn (K) est diagonalisable si A est semblable é une matrice diagonale.
Théorème 4.22
Soit f ∈ End(E) avec dimE = n, Les propriétés suivantes sont équivalentes.
1. f est diagonalisable.
2. Pf est scindé sur K et pour toute racine λi de Pf d'ordre de multiplicité mi , mi =
dimEλi .
3. Il existe des valeurs prpres λ1 , λ2 , ....., λp vériant E = Eλ1 ⊕ ..... ⊕ Eλp .
Corollaire 4.24 Soit f ∈ End(E). Si Pf est scindé sur K et a toutes ses racines simples,
alors f est diagonalisable.
Dénition 4.25
1. f ∈ End(E) est dit trigonalisable s'il existe une base B de E dans laquelle la matrice
de f soit triangulaire supérieure
2. Une matrice A ∈ Mn (K) est dite trigonalisable si A est semblable é une matrice
triangulaire supérieure, c'est é dire s'il existe une matrice inversible P ∈ Mn (K)
telle que P −1 AP soit triangulaire supérieure.
Théorème 4.26
Soient f ∈ End(E) et A ∈ Mn (K). f (resp A) est trigonalisable ssi Pf (resp PA ) est
scindé sur K.
Soit f un endomorphisme
d'un K-espace vectoriel E de dimension n. On déni les
f 0 = IdE ,
puissances de f par : f 2 = f ◦ f,
= fp ◦ f .
p+1
f
Notation 4.27 Soit P = a0 + a1 X + + + + + +ap X p .
1. Pour tout f ∈ End(E), on note P (f ) = a0 IdE + a1 f + + + +ap X p .
2. Pour tout A ∈ Mn (K), on note P (A) = aIn + a1 A + + + +ap Ap .
End(E) est un K-espace vectoriel tel que dim(End(E)) = n2 donc pour f ∈ End(E) la fa-
mille IdE , f, f 2 , ....., f n est liée autrement dit il existe (a0 , a1 , a2 , ....., an2 ) 6= (0, 0, 0, ....., 0),
2
vériant 2
a0 IdE + a1 f + + + + + an2 f n = 0.
Donc si P = ai X i alors P (f ) = 0 et P (A) = 0n , D'oé la dénition suivante.
Pi=n2
i=0
Dénition 4.28
On appelle polynôme annulateur de f (resp de A) tout polynôme P ∈ K[X] tel que P (f ) =
0 (resp P (A) = 0n ).
Notation 4.29 Soient f ∈ End(E) et A ∈ Mn (K), on a :
1. Ann(f ) = {P ∈ K[X]; P (f ) = 0}
2. Ann(A) = {P ∈ K[X]; P (A) = 0n }.
Dénition 4.30
Soit f ∈ End(E) (resp A ∈ Mn (K)), alors il existe un unique polynôme unitaire mf
(resp mA ) de K[X] de degré minimal appartenant é Ann(f ) (resp, Ann(A)) tel que tout
polynôme annulateur de f (resp de A) est multiple de mf (resp de mA ). Le polynôme mf
(resp mA ) est appelé polynôme minimal de f (resp de A).
Théorème 4.31
(Théoréme de Cayley-Hamilton) Soit f ∈ End(E) (resp, A ∈ Mn (K)), le polynôme
caractéristique de f (resp de A) est un polynôme annulateur de f (resp de A) ; c'est é
dire Pf (f ) = 0 et PA (A) = 0n .
En particulier , avec k = n, on en déduit que pour tout i ∈ {1, 2, ....., n}, Pn (T )ei = 0,
donc Pn (T ) = 0, c'est é dire PT (T ) = 0 et Pf (f ) = 0.
Corollaire 4.33 Soit f ∈ End(E) (resp A ∈ Mn (K)) alors mf divise Pf (resp mA divise
PA ).
Théorème 4.34
Soit f ∈ End(E). Si Pf = (−1)n − ai )ni alors mf = − ai )mi avec
Qk Qk
i=1 (X i=1 (X
1 ≤ mi ≤ ni .
Théorème 4.36
Soit f ∈ End(E) de spectre Sp(f ) = {λ1 , λ2 , ....., λp ). Les propriétés suivantes sont équi-
valentes.
1. f est diagonalisable.
2. mf = pi=1 (X − λi ).
Q
Applications :
Exercice 4.37
3 1 −3
Considérons la matrice A = −1 1 1
1 1 −1
1. Calculer PA le polynôme caractéristique de A.
2. Calculer les valeurs propres et les vecteurs propres correspondants.
3. Montrer que A est inversible et trouver A−1 .
4. Examiner la diagonalisation de A.
5. Chercher mA le polynôme minimal de A.
6. Montrer l'existence d'une matrice inversible P telle que :
P −1 AP = diag(1, 2, 0).
4.6 Exercies
Exercice 4.38
Soient f, g ∈ End(E) oé E est un K-espace vectoriel de dimension nie n tels que f ◦ g =
g ◦ f.
1. Montrer que tout sous-espace prpore de f est stable par g (en particulier ker(f )).
2. Montrer que Imf est stable par g .
Exercice 4.39
0 2 −1
Considérons la matrice A = 3 −2 0 .
−2 2 1
1. Calculer PA le polynôme caractéristique de A.
2. Calculer les valeurs propres et les vecteurs propres correspondants.
3. Montrer que A est inversible et trouver A−1 .
4. Examiner la diagonalisation de A.
5. Chercher mA le polynôme minimal de A.
6. Montrer l'existence d'une matrice inversible P telle que :
P −1 AP = diag(1, 2, −4).
Exercice 4.40
−1 0 0
Calculer le polynôme minimal pour chacune des matrices suivantes : A = 2 −1 4 ,
1 0 3
3 −1 −1
B = 2 0 −1
1 1 2
Exercice 4.41
Diagonaliser ou
trigonaliserdans M
n (C) en donnant
la matrice
de passage,
les matrices
0 1 1 1 4 −2 2 2 −3
suivantes : A = 1 0 1 , B = 0 6 −3 , C = 5 1 −5 .
1 1 0 −1 4 0 −2 4 0